Was sind kolonialstaaten?

Gefragt von: René Pieper  |  Letzte Aktualisierung: 26. Februar 2021
sternezahl: 4.9/5 (64 sternebewertungen)

Als Kolonie (von lateinisch colere ‚bebauen, Land bestellen') bezeichnet man in der Neuzeit ein auswärtiges abhängiges Gebiet eines Staates ohne eigene politische und wirtschaftliche Macht. Die Bildung von Kolonien war und ist ein wesentliches Instrument der Machtausdehnung imperialistischer Staaten. ...

Was ist eine Kolonialismus einfach erklärt?

In diesem Text geht es um Kolonialismus. Das Wort bedeutet: Ein Land erobert Gebiete in einem anderen Land. Meistens liegt das eroberte Land in einem anderen Teil der Welt. ... Die Eroberer übernehmen die Herrschaft über die Einwohner.

Was versteht man unter kolonialen Imperium?

+ Absatzmärkte + Siedlungsgebiete. Koloniale Imperien: In Übersee gegründete Kolonien sind koloniale Imperien. Eine Grossmacht zu werden. ... Völker und Staaten: Die Grossmächte wie Grossbritannien, Frankreich, Deutschland, Russland sowie die USA und Japan haben Imperialismus betrieben.

Wie erklärt man einem Kind was eine Kolonie ist?

Das Wort Kolonie kommt aus dem Lateinischen und hat eigentlich mit der Landwirtschaft zu tun. ... Gemeint war damit am Anfang, dass Einwohner aus einer Stadt oder einem Land sich woanders niedergelassen haben, weil es daheim nicht genug Nahrung für alle gab. So eine Neu-Siedlung nannte man Kolonie.

Was sind die Kolonialmächte?

Ein Land wird zur Kolonialmacht, wenn es über Kolonien herrscht, also Regionen außerhalb seiner Landesgrenzen regiert.

Kolonie einfach erklärt (explainity® Erklärvideo)

27 verwandte Fragen gefunden

Was waren die größten Kolonialmächte?

die Niederlande, Belgien und Italien. Großbritannien war die stärkste Kolonialmacht und bildete das „British Empire“ (Empire): Großbritannien besaß Kolonien in Afrika, zahlreiche Inseln in aller Welt, außerdem Kanada, Australien, Neuseeland und „Britisch Indien“.

Welche Staaten besaßen die meisten Kolonien und wo liegen diese?

Frankreich und England gehörten die meisten Kolonien. Lediglich Äthiopien und Liberia waren damals unabhängig; die Südafrikanische Union war seit 1910 ein sich selbst regierendes britisches Dominion, also faktisch unabhängig.

Was versteht man unter einer Kolonie?

Als Kolonie (von lateinisch colere ‚bebauen, Land bestellen') bezeichnet man in der Neuzeit ein auswärtiges abhängiges Gebiet eines Staates ohne eigene politische und wirtschaftliche Macht. Begrifflich hängt Kolonie eng mit Kolonisation zusammen. Bei der Kolonisation handelt es sich im Kern um eine Landnahme.

Warum gibt es Kolonien?

Jahrhundert gründeten Europas damalige Großmächte, allen voran Großbritannien, Frankreich, Portugal und Spanien, überall auf der Welt Kolonien, weil sie noch mächtiger werden wollten. ... Sie wollten aus den fremden Gegenden Gold, Silber, Baumwolle, Tabak, Gewürze und andere Rohstoffe nach Europa bringen.

Wie sind die Kolonien entstanden?

Unterwerfung anderer Länder. Im Laufe der letzten 200 Jahre haben viele europäische Staaten Länder in anderen Erdteilen unterworfen. Diese Länder konnten sich gegen die Übermacht der Europäer nicht wehren und wurden zu sogenannten Kolonien. Diese Eroberungspolitik bezeichnet man als "Kolonialismus".

Was ist die Kolonialpolitik?

Kolonialpolitik, die Schaffung von Kolonien im Rahmen des Kolonialismus und Imperialismus sowie die Ausübung der Kolonialherrschaft in diesen Gebieten durch die Kolonialmächte. ... Vereinzelt kam es zum Widerstand gegen die Kolonialherrschaft.

Welche Länder wurden nie kolonialisiert?

Zwei afrikanische Länder wurden nicht kolonisiert: Abessinien, das heutige Äthiopien, und Liberia.

Welche Kolonien gibt es noch?

Frankreich ist das einzige europäische Land, das bis heute Reste seiner Kolonien erhalten hat. Sie tragen den Namen Überseedepartements, Gebietskörperschaften oder Überseegebiete. Das französische Kolonialreich war am größten in den 20er und 30er Jahren des 20.

Was versteht man unter Kolonialismus und Imperialismus?

Der Imperialismus ist darauf gerichtet, durch koloniale Erwerbungen und militärische Unterwerfung sowie durch politische, wirtschaftliche und kulturelle Einflussnahme andere Länder und ihre Bewohner abhängig zu machen, auszubeuten und direkt oder indirekt zu beherrschen.

Was hat der Kolonialismus gebracht?

Der Kolonialismus ist Politik der militärischen Eroberung oder Besetzung sowie der anschließenden Besiedlung von Gebieten durch fremde Eindringlinge im eigenen Interesse oder durch einen Staat. ... Der Bevölkerung in den Kolonien wurde die völkerrechtliche Unabhängigkeit gewährt, bzw. sie haben sich sie erkämpft.

Wie spricht man Kolonialismus aus?

Als Kolonialismus wird die meist staatlich geförderte Inbesitznahme auswärtiger Territorien und die Unterwerfung, Vertreibung oder Ermordung der ansässigen Bevölkerung durch eine Kolonialherrschaft bezeichnet.

Warum braucht Deutschland Kolonien?

Die deutschen Kolonien wurden vom Deutschen Kaiserreich seit den 1880er Jahren erworben und nach dem Ersten Weltkrieg gemäß dem Versailler Vertrag von 1919 abgetreten. Sie wurden von Bismarck Schutzgebiete genannt, weil er in ihnen den deutschen Handel schützen wollte.

Warum wurden Kolonien aufgegeben?

Der Entschluss zur Dekolonisation kam primär aus volkswirtschaftlichen Gründen, denn die Mutterländer konnten ihre Kolonien nicht mehr finanzieren. Also war man allgemein zu dem Schluss gekommen, dass es wirtschaftlich günstiger wäre, sich politisch aus Afrika zurückzuziehen.

Warum begann die Kolonialisierung?

Dass die Europäer auf die Idee kamen, Länder außerhalb Europas zu erkunden, für den Handel zu erschließen und die Herrschaft über die Bevölkerung zu beanspruchen, hatte verschiedene Gründe. ... Auch das Bevölkerungswachstum und der steigende Bedarf an Nahrungsmitteln führten dazu, dass die Europäer Kolonien errichteten.

Welche Länder gehörten zum britischen Empire?

Im übrigen Asien herrschten die Briten vor allem in Indien, Pakistan, Sri Lanka, Myanmar, den Städten Hongkong und Singapur sowie in Malaysia. Ozeanische Kolonien waren Australien, Neuseeland und Fidschi.