Was sind kolonien definition?

Gefragt von: Michaela Ulrich B.A.  |  Letzte Aktualisierung: 21. Juni 2021
sternezahl: 4.3/5 (59 sternebewertungen)

Als Kolonie bezeichnet man in der Neuzeit ein auswärtiges abhängiges Gebiet eines Staates ohne eigene politische und wirtschaftliche Macht. Begrifflich hängt Kolonie eng mit Kolonisation zusammen. Bei der Kolonisation handelt es sich im Kern um eine Landnahme.

Was versteht man unter einer Kolonie?

Eine Kolonie ist ein Gebiet, dass von fremden Menschen eingenommen wurden.

Was ist mit dem Begriff Kolonialisierung gemeint?

Der Begriff Kolonisation oder Kolonisierung bezeichnet die Gründung und Entwicklung von Kolonien (lateinisch colonia ‚Ansiedlung'). ... Die Kolonisation in der Neuzeit kann die Urbarmachung, Besiedelung und Entwicklung bisher ungenutzter Gebiete eines Staates bedeuten.

Wie entsteht eine Kolonie?

Wenn in einer Stadt oder einem Land mehr Menschen wohnten, als man ernähren konnte, kam es zu Hungersnöten. Aus diesem Grund haben schon Phönizier und Griechen ihre Heimat verlassen und rund ums Mittelmeer neue Städte gegründet. Diese Städte nannte man Kolonien oder auch Tochterstädte.

Was ist Kolonialismus für Kinder erklärt?

Mit Kolonialismus ist die Beherrschung eines Landes durch ein Volk aus einer anderen Kultur gemeint. Besonders die Europäer haben lange Zeit über große Gebiete in Amerika, Asien, Ozeanien und Afrika geherrscht.

Kolonie einfach erklärt (explainity® Erklärvideo)

27 verwandte Fragen gefunden

Was ist der Kolonialismus?

Als Kolonialismus wird die Inbesitznahme auswärtiger Territorien und die Unterwerfung, Vertreibung oder Ermordung der ansässigen Bevölkerung durch eine Kolonialherrschaft bezeichnet. ... Kolonialismus ging mit der europäischen Expansion einher.

Was ist Kolonialpolitik einfach erklärt?

Kolonialpolitik, die Schaffung von Kolonien im Rahmen des Kolonialismus und Imperialismus sowie die Ausübung der Kolonialherrschaft in diesen Gebieten durch die Kolonialmächte. Die Kolonialmächte waren den Kolonien gegenüber militärisch überlegen, die dort lebenden Menschen den Kolonialherren ausgeliefert.

Wo gibt es heute noch Kolonien?

Frankreich ist das einzige europäische Land, das bis heute Reste seiner Kolonien erhalten hat. Sie tragen den Namen Überseedepartements, Gebietskörperschaften oder Überseegebiete.

Welche Staaten besaßen die meisten Kolonien und wo liegen diese?

Frankreich und England gehörten die meisten Kolonien. Lediglich Äthiopien und Liberia waren damals unabhängig; die Südafrikanische Union war seit 1910 ein sich selbst regierendes britisches Dominion, also faktisch unabhängig.

Was sind die Kolonisten?

Ab dem 17. Jahrhundert wanderten Menschen aus verschiedenen Regionen Europas in die englischen und französischen Kolonien in Nordamerika ein. Sie suchten oft Schutz vor politischer Verfolgung und Freiheit für die Ausübung ihrer Religion. ... Die Kolonisten in Nordamerika brauchten Arbeitskräfte.

Welche Kolonien besaß Deutschland?

Das deutsche Kolonialreich umfasste Teile der heutigen Staaten China, Burundi, Ruanda, Tansania, Namibia, Kamerun, Gabun, Republik Kongo, Zentralafrikanische Republik, Tschad, Nigeria, Togo, Ghana, Neuguinea, und mehrere Inseln im Westpazifik und Mikronesien.

Welche Kolonien sind heute noch britisch?

Das Britische Weltreich war das größte Reich auf der Erde. ... Die Völker wehrten sich gegen die Briten, und das Weltreich wurde für Großbritannien zu teuer. Heute hat Großbritannien nur noch einige kleine Inseln als Kolonien, oder wie man sagt: überseeische Gebiete.

Hat Spanien heute noch Kolonien?

Marokko wurde im Jahr 1956 unabhängig, und im Jahr 1976 gaben die Spanier auch die Kolonie Westsahara im Süden von Marokko auf. Heute hat Spanien nur noch drei Überseegebiete: die Kanarischen Inseln sowie die beiden Exklaven Ceuta und Melilla. Diese liegen in Afrika und grenzen an Marokko.

Was bedeutet Imperialismus einfach erklärt?

Der Begriff "Imperialismus" leitet sich aus dem Lateinischen ab und bedeutet so viel wie Herrschaft oder Reich (imperium). Man versteht darunter die Ausbreitungspolitik der Großmächte, wie Großbritannien, Frankreich, Deutschland, Russland sowie der USA und Japans.

Wie ist es zum Kolonialismus gekommen?

Streit um Afrika

Jahrhundert teilten die großen Kolonial-Mächte fast die ganze Welt unter sich auf. Dabei kam es zu einem Streit um Afrika. Jedes Land in Europa wollte Gebiete in Afrika als Kolonie haben. Am Ende war fast ganz Afrika erobert.

Was waren die Ziele der Kolonialpolitik?

Das Ziel der britischen Staatspolitik lag in den kolonialen Eroberungen. Für Großbritannien waren Kolonien billige Rohstoff- lieferanten und Absatzgebiete für Fertigprodukte. Frankreich ging erst im letzten Drittel des 19. Jahrhunderts zum Imperialismus über.

Was ist Kolonialismus und Imperialismus?

Der Imperialismus ist darauf gerichtet, durch koloniale Erwerbungen und militärische Unterwerfung sowie durch politische, wirtschaftliche und kulturelle Einflussnahme andere Länder und ihre Bewohner abhängig zu machen, auszubeuten und direkt oder indirekt zu beherrschen.