Was ist ein kolonialstaat?

Gefragt von: Tina Bender B.Eng.  |  Letzte Aktualisierung: 5. März 2021
sternezahl: 5/5 (20 sternebewertungen)

Als Kolonie (von lateinisch colere ‚bebauen, Land bestellen') bezeichnet man in der Neuzeit ein auswärtiges abhängiges Gebiet eines Staates ohne eigene politische und wirtschaftliche Macht. Begrifflich hängt Kolonie eng mit Kolonisation zusammen. Bei der Kolonisation handelt es sich im Kern um eine Landnahme.

Was ist eine Kolonialismus einfach erklärt?

In diesem Text geht es um Kolonialismus. Das Wort bedeutet: Ein Land erobert Gebiete in einem anderen Land. Meistens liegt das eroberte Land in einem anderen Teil der Welt. Und die Menschen dort haben eine andere Lebens-Weise als die Eroberer.

Wie erklärt man einem Kind was eine Kolonie ist?

Das Wort Kolonie kommt aus dem Lateinischen und hat eigentlich mit der Landwirtschaft zu tun. Gemeint war damit am Anfang, dass Einwohner aus einer Stadt oder einem Land sich woanders niedergelassen haben, weil es daheim nicht genug Nahrung für alle gab. So eine Neu-Siedlung nannte man Kolonie.

Was ist die Kolonialpolitik?

Kolonialpolitik, die Schaffung von Kolonien im Rahmen des Kolonialismus und Imperialismus sowie die Ausübung der Kolonialherrschaft in diesen Gebieten durch die Kolonialmächte. ... Vereinzelt kam es zum Widerstand gegen die Kolonialherrschaft.

Wie sind die Kolonien entstanden?

Jahrhundert gründeten Europas damalige Großmächte, allen voran Großbritannien, Frankreich, Portugal und Spanien, überall auf der Welt Kolonien, weil sie noch mächtiger werden wollten. ... Sie wollten aus den fremden Gegenden Gold, Silber, Baumwolle, Tabak, Gewürze und andere Rohstoffe nach Europa bringen.

Kolonie einfach erklärt (explainity® Erklärvideo)

31 verwandte Fragen gefunden

Wie entstanden die deutschen Kolonien?

Die deutschen Kolonien waren 1914 das an Fläche drittgrößte Kolonialreich nach dem britischen und französischen. ... Ausgewanderte Deutsche gründeten in Übersee Siedlungen, die bisweilen als „deutsche Kolonien“ bezeichnet werden, aber keine Souveränitätsrechte des Herkunftslandes ausübten.

Welches Land hatte welche Kolonien?

Kolonialmächte. Die ersten Kolonien wurden von den großen Seefahrernationen Großbritannien, Spanien, Portugal, Frankreich und den Niederlanden erobert. Deutschland, das nicht zu den großen Seefahrernationen gehörte, hatte für kurze Zeit (bis zum Ende des Ersten Weltkrieges) wenige Kolonien in Afrika und Asien.

Welche Folgen hat der Kolonialismus bis heute?

Und so bestehen auch heute noch, wenn auch etwas subtiler, Abhängigkeiten und Asymmetrien zwischen ehemaligen Kolonien und Kolonialmächten. Eine schlechte wirtschaftliche und politische Lage, blutige Konflikte sowie wenig Aussichten auf Arbeitsplätze stellen auch weiterhin für viele Menschen einen Fluchtgrund dar.

Was hat der Kolonialismus gebracht?

Der Kolonialismus ist Politik der militärischen Eroberung oder Besetzung sowie der anschließenden Besiedlung von Gebieten durch fremde Eindringlinge im eigenen Interesse oder durch einen Staat. ... Der Bevölkerung in den Kolonien wurde die völkerrechtliche Unabhängigkeit gewährt, bzw. sie haben sich sie erkämpft.

Wer war die größte Kolonialmacht der Welt?

die Niederlande, Belgien und Italien. Großbritannien war die stärkste Kolonialmacht und bildete das „British Empire“ (Empire): Großbritannien besaß Kolonien in Afrika, zahlreiche Inseln in aller Welt, außerdem Kanada, Australien, Neuseeland und „Britisch Indien“.

Was versteht man unter Kolonialzeit?

Bedeutungen: [1] Zeitraum, in dem ein Land über eine Kolonie/Kolonien verfügt. Herkunft: ... [1] „Vor rund hundert Jahren, während und nach der deutschen Kolonialzeit, entwickelte sich im heutigen Papua-Neuguinea ein Deutsch, das sonst nirgends auf der Welt gesprochen wurde: das sogenannte Unserdeutsch.

Wie begann der Kolonialismus?

Die Aufteilung der außereuropäischen Welt im Jahr 1494 markiert den Beginn der ersten Phase des europäischen Kolonialismus. Abgesegnet durch den Papst, legitimierten Portugal und Spanien ihr Ausgreifen über das Mittelmeer hinaus in Richtung Westen.

Was versteht man unter dem Begriff Imperialismus?

Was passier gneau bei Imperialismus? Hallo Klara, als Imperialismus bezeichnet man das Streben von Staaten, ihre Macht weit über die eigenen Landesgrenzen hinaus auszudehnen. Dabei werden militärisch schwächere Länder politisch, wirtschaftlich und kulturell beeinflusst und abhängig gemacht.

Was versteht man unter Kolonialismus und Imperialismus?

Als Imperialismus (von lateinisch imperare „herrschen“; imperium „Weltreich“; etwa bei Imperium Romanum) bezeichnet man das Bestreben eines Staatswesens bzw. ... Der Begriff Imperialismus umfasst mehr als Kolonialismus und muss deshalb vor allem von Kolonisierung getrennt werden.

Was ist der Unterschied zwischen Imperialismus und Kolonialismus?

Unterschiede: Imperialismus kann als Machtkontrolle und Beeinflussung auch durch indirekte Herrschaft und Abhängigkeitsverhältnisse (politisch, wirtschaftlich, kulturell) stattfinden, während Kolonialismus immer auf direkte Herrschaft bezogen ist.

Warum kam es zur Kolonialisierung?

Dass die Europäer auf die Idee kamen, Länder außerhalb Europas zu erkunden, für den Handel zu erschließen und die Herrschaft über die Bevölkerung zu beanspruchen, hatte verschiedene Gründe. ... Auch das Bevölkerungswachstum und der steigende Bedarf an Nahrungsmitteln führten dazu, dass die Europäer Kolonien errichteten.

Wie hieß der Stamm der sich gegen die deutsche Kolonialmacht auflehnte?

Vor 110 Jahren lehnte sich die Bevölkerungsgruppe der Herero in Namibia gegen die deutschen Kolonialherren auf. Diese antworteten auf die Angriffe mit einer bis dahin ungekannten Brutalität. Zehntausende Menschen fielen dem Vernichtungsfeldzug zum Opfer.

Welche Länder wurden nie kolonialisiert?

Er führte die schrecklichste Herrschaft über afrikanische Völker. Zwei afrikanische Länder wurden nicht kolonisiert: Abessinien, das heutige Äthiopien, und Liberia.

Was sind die Folgen des Imperialismus?

Langfristige Folgen

Alte Einflusssysteme sind nicht mehr gültig und die neuen nur von Weissen diktiert und kontrolliert. diese Staaten wirtschaftlich abhängig und brachte eine Verwestlichung des Konsumverhaltens mit sich. Die Sprache der Kolonialmacht wurde zur Amtssprache und verdrängte viele Lokalsprachen.

Warum gibt es keine Kolonien mehr?

Der Entschluss zur Dekolonisation kam primär aus volkswirtschaftlichen Gründen, denn die Mutterländer konnten ihre Kolonien nicht mehr finanzieren. ... Dazu kamen „Versprechen“ auf größere Selbstverwaltung, die die Kolonialmächte während des Krieges gemacht hatten, als Truppen aus den Kolonien ihre Armeen verstärkten.