Kolonialmacht was ist das?

Gefragt von: Rosa Günther  |  Letzte Aktualisierung: 28. März 2021
sternezahl: 4.7/5 (44 sternebewertungen)

Ein Land wird zur Kolonialmacht, wenn es über Kolonien herrscht, also Regionen außerhalb seiner Landesgrenzen regiert. Kolonialmacht kann nur ein Territorialstaat sein. Länder, in denen die Herrschaft über das Gefolgschaftssystem ausgeübt wird, haben dagegen keine Kolonien, sondern allenfalls Tributländer.

Was ist eine Kolonie leicht erklärt?

Eine Kolonie ist ein Gebiet, dass von fremden Menschen eingenommen wurden. Dies diente meist zum Zweck der Macht- und Ressourcenerweiterung. Vor allem die europäischen Großmächte besetzen bis ins 20 Jahrhundert noch sehr viele Gebiete der Erde.

Was ist die größte Kolonialmacht?

Die größte Kolonialmacht war im 19. Jahrhundert das Vereinigte Königreich. Das britische Weltreich ("British Empire") umfasste ein Fünftel der Erde und ein Viertel der Weltbevölkerung. Am kolonialen Wettlauf waren außerdem zahlreiche weitere Länder beteiligt, u.a. die Niederlande, Frankreich, Belgien und Italien.

Was hat der Kolonialismus gebracht?

Der Kolonialismus ist Politik der militärischen Eroberung oder Besetzung sowie der anschließenden Besiedlung von Gebieten durch fremde Eindringlinge im eigenen Interesse oder durch einen Staat. ... Der Bevölkerung in den Kolonien wurde die völkerrechtliche Unabhängigkeit gewährt, bzw. sie haben sich sie erkämpft.

Was ist Kolonialismus für Kinder erklärt?

Mit Kolonialismus ist die Beherrschung eines Landes durch ein Volk aus einer anderen Kultur gemeint. Besonders die Europäer haben lange Zeit über große Gebiete in Amerika, Asien, Ozeanien und Afrika geherrscht. ... Mit diesem Schiff reiste Kolumbus nach Amerika.

Kolonie einfach erklärt (explainity® Erklärvideo)

36 verwandte Fragen gefunden

Was versteht man unter Kolonialismus und Imperialismus?

Als Imperialismus (von lateinisch imperare „herrschen“; imperium „Weltreich“; etwa bei Imperium Romanum) bezeichnet man das Bestreben eines Staatswesens bzw. ... Der Begriff Imperialismus umfasst mehr als Kolonialismus und muss deshalb vor allem von Kolonisierung getrennt werden.

Wie sind die Kolonien entstanden?

Jahrhundert gründeten Europas damalige Großmächte, allen voran Großbritannien, Frankreich, Portugal und Spanien, überall auf der Welt Kolonien, weil sie noch mächtiger werden wollten. ... Sie wollten aus den fremden Gegenden Gold, Silber, Baumwolle, Tabak, Gewürze und andere Rohstoffe nach Europa bringen.

Welche Folgen hat der Kolonialismus bis heute?

Und so bestehen auch heute noch, wenn auch etwas subtiler, Abhängigkeiten und Asymmetrien zwischen ehemaligen Kolonien und Kolonialmächten. Eine schlechte wirtschaftliche und politische Lage, blutige Konflikte sowie wenig Aussichten auf Arbeitsplätze stellen auch weiterhin für viele Menschen einen Fluchtgrund dar.

Warum kam es zur Kolonialisierung?

Dass die Europäer auf die Idee kamen, Länder außerhalb Europas zu erkunden, für den Handel zu erschließen und die Herrschaft über die Bevölkerung zu beanspruchen, hatte verschiedene Gründe. ... Auch das Bevölkerungswachstum und der steigende Bedarf an Nahrungsmitteln führten dazu, dass die Europäer Kolonien errichteten.

Warum sollten Deutsche Kolonien erworben werden?

Die deutschen Kolonien wurden vom Deutschen Kaiserreich seit den 1880er Jahren erworben und nach dem Ersten Weltkrieg gemäß dem Versailler Vertrag von 1919 abgetreten. Sie wurden von Bismarck Schutzgebiete genannt, weil er in ihnen den deutschen Handel schützen wollte.

Wer hat die meisten Kolonien?

Frankreich und England gehörten die meisten Kolonien.

Welche Staaten besaßen die großen Kolonien?

Kolonialmächte. Die ersten Kolonien wurden von den großen Seefahrernationen Großbritannien, Spanien, Portugal, Frankreich und den Niederlanden erobert. Deutschland, das nicht zu den großen Seefahrernationen gehörte, hatte für kurze Zeit (bis zum Ende des Ersten Weltkrieges) wenige Kolonien in Afrika und Asien.

Wer sind die Kolonialmächte?

Kolonialmächte, die europäischen Großmächte Großbritannien, Frankreich, Russland und das Deutsche Kaiserreich sowie Japan und die USA, die im 19. Jahrhundert in Konkurrenz zueinander in Afrika und Asien neue Kolonialreiche gründeten und eine neue Form des Kolonialismus und der Kolonialpolitik schufen.

Was versteht man unter Kolonie?

Als Kolonie (von lateinisch colere ‚bebauen, Land bestellen') bezeichnet man in der Neuzeit ein auswärtiges abhängiges Gebiet eines Staates ohne eigene politische und wirtschaftliche Macht. Begrifflich hängt Kolonie eng mit Kolonisation zusammen. Bei der Kolonisation handelt es sich im Kern um eine Landnahme.

Was sind die Folgen des Imperialismus?

Langfristige Folgen

Alte Einflusssysteme sind nicht mehr gültig und die neuen nur von Weissen diktiert und kontrolliert. diese Staaten wirtschaftlich abhängig und brachte eine Verwestlichung des Konsumverhaltens mit sich. Die Sprache der Kolonialmacht wurde zur Amtssprache und verdrängte viele Lokalsprachen.

Wie lange dauerte der Kolonialismus?

Das Wort „Kolonialismus“ hat aber mit Kolonien in einer bestimmten Zeit zu tun. Die Zeit des Kolonialismus fing vor etwa 520 Jahren an. Also ungefähr im Jahr 1500. Damals haben Länder aus Europa angefangen, in anderen Teilen von der Erde Gebiete zu erobern.

Warum gibt es keine Kolonien mehr?

Der Entschluss zur Dekolonisation kam primär aus volkswirtschaftlichen Gründen, denn die Mutterländer konnten ihre Kolonien nicht mehr finanzieren. ... Dazu kamen „Versprechen“ auf größere Selbstverwaltung, die die Kolonialmächte während des Krieges gemacht hatten, als Truppen aus den Kolonien ihre Armeen verstärkten.

Warum gingen die Griechen an Kolonien zu gründen?

Griechenland ist sehr gebirgig und so fehlten den Bauern oft die Ackerflächen. ... immer weiter wuchs, reichten die Ackerflächen nicht aus, um die Familien zu ernähren. So verließen viele Griechen ihre Heimat und gründeten neue Siedlungen in der Ferne. Jede neue Siedlung war dann auch gleichzeitig eine neue Polis.

Wie entstand das deutsche Kolonialreich?

Deutsche Kolonien und Schutzgebiete

Die deutschen Kolonien wurden vom Deutschen Kaiserreich gegen Ende des 19. Jahrhunderts erworben und nach dem Ersten Weltkrieg gemäß dem Versailler Vertrag von 1919 abgetreten. Sie wurden von Bismarck Schutzgebiete genannt, weil er in ihnen den deutschen Handel schützen wollte.