Was ist der postkolonialismus?

Gefragt von: Frau Prof. Dr. Ernestine Lutz  |  Letzte Aktualisierung: 6. Februar 2021
sternezahl: 4.8/5 (15 sternebewertungen)

Postkolonialismus ist eine geistige Strömung, die sich seit Mitte des 20. Jahrhunderts in Auseinandersetzung mit der Geschichte des Kolonialismus und Imperialismus entwickelte.

Was ist Postkolonial?

Die Epoche nach Auflösung der Kolonien; der kulturelle Zustand einer postkolonialen Gesellschaft; / kritische Auseinandersetzung mit und intellektuelle Loslösung von den gesellschaftlichen, ökonomischen, politischen Auswirkungen des Kolonialismus.

Was ist der Kolonialismus?

In diesem Text geht es um Kolonialismus. Das Wort bedeutet: Ein Land erobert Gebiete in einem anderen Land. Meistens liegt das eroberte Land in einem anderen Teil der Welt. ... Die Länder von den Eroberern nennt man: Kolonial-Mächte.

Was weiß der Postkolonialismus vom Kolonialismus?

Was weiß der Postkolonialismus vom Kolonialismus? Die historische Forschung hat sich von der Vorstellung verabschiedet, dass der koloniale Staat ein totalitäres Regime gewesen sei. In den postkolonialen Studien kehren die Träume der Kolonialherren von absoluter Macht zurück.

Wann war der Postkolonialismus?

Definitionen und Entwicklung. Erste Denkansätze des Postkolonialismus gab es bereits 1947, als sich Indien vom British Empire trennte und als unabhängiger Staat dem Commonwealth of Nations beitrat. Seit den 1950er Jahren stieg das Interesse der Linksintellektuellen an der „Dritten Welt“ stetig an.

Der postkoloniale Blick: Wir sehen nur, was wir kennen | Capriccio | BR

35 verwandte Fragen gefunden

Was versteht man unter dem Begriff Imperialismus?

Hallo Klara, als Imperialismus bezeichnet man das Streben von Staaten, ihre Macht weit über die eigenen Landesgrenzen hinaus auszudehnen.

Was ist Kolonialismus und Imperialismus?

Als Imperialismus (von lateinisch imperare „herrschen“; imperium „Weltreich“; etwa bei Imperium Romanum) bezeichnet man das Bestreben eines Staatswesens bzw. ... Der Begriff Imperialismus umfasst mehr als Kolonialismus und sollte deshalb vor allem von Kolonisierung getrennt werden.

Was hat der Kolonialismus gebracht?

Der Kolonialismus ist Politik der militärischen Eroberung oder Besetzung sowie der anschließenden Besiedlung von Gebieten durch fremde Eindringlinge im eigenen Interesse oder durch einen Staat. ... Der Bevölkerung in den Kolonien wurde die völkerrechtliche Unabhängigkeit gewährt, bzw. sie haben sich sie erkämpft.

Welche Folgen hat der Kolonialismus bis heute?

Und so bestehen auch heute noch, wenn auch etwas subtiler, Abhängigkeiten und Asymmetrien zwischen ehemaligen Kolonien und Kolonialmächten. Eine schlechte wirtschaftliche und politische Lage, blutige Konflikte sowie wenig Aussichten auf Arbeitsplätze stellen auch weiterhin für viele Menschen einen Fluchtgrund dar.

Was sind die Folgen des Imperialismus?

In der Hauptphase des Imperialismus nahmen die Spannungen zwischen den europäischen Staaten kontinuierlich zu. Es entstand ein eigentliches Wettrennen um die noch verbleibenden freien Gebiete. All diese Querelen führten zu einer Freund-Feind-Politik, deren komplizierte Bündnisse in den Ersten Weltkrieg führten.

Warum gibt es keine Kolonien mehr?

Der Entschluss zur Dekolonisation kam primär aus volkswirtschaftlichen Gründen, denn die Mutterländer konnten ihre Kolonien nicht mehr finanzieren. ... Dazu kamen „Versprechen“ auf größere Selbstverwaltung, die die Kolonialmächte während des Krieges gemacht hatten, als Truppen aus den Kolonien ihre Armeen verstärkten.

Warum gibt es Kolonialismus?

Mit Kolonialismus ist die Beherrschung eines Landes durch ein Volk aus einer anderen Kultur gemeint. ... Grundlage für den Kolonialismus waren die Entdeckungsreisen europäischer Seefahrer wie Vasco da Gama oder Christoph Kolumbus. Mit diesem Schiff reiste Kolumbus nach Amerika.

Warum sollten Deutsche Kolonien erworben werden?

Die deutschen Kolonien wurden vom Deutschen Kaiserreich seit den 1880er Jahren erworben und nach dem Ersten Weltkrieg gemäß dem Versailler Vertrag von 1919 abgetreten. Sie wurden von Bismarck Schutzgebiete genannt, weil er in ihnen den deutschen Handel schützen wollte.

Welche Länder waren nie kolonialisiert?

Zwei afrikanische Länder wurden nicht kolonisiert: Abessinien, das heutige Äthiopien, und Liberia. 1935 marschierten italienische Truppen unter Benuto Mussolini in Äthiopien ein, das damals Abessinien hieß. Im sogenannten Abessinien-Krieg fiel die Hauptstadt Addis Abeba schnell in italienische Hände.

Welche Vorteile brachten die Kolonien ihren Besitzern?

Zugang zu neuen Rohstoffen & Ressourcen. ... Die Ressourcen der jeweiligen Kolonie wurden übernommen. Man hatte mehr Land zur Verfügung und ist expandiert. Wichtige Güter, die es in der Heimat nicht gab wurden exportiert.

Welche Gründe gab es für den Imperialismus?

Die Ursachen des Imperialismus waren:

Aufgrund der kurz vorher abgeschlossenen Industrialisierung kam es in nahezu allen Ländern Europas zu innerstaatlichen Auseinandersetzungen und Spannungen.

Was bedeutet Imperialismus für Kinder erklärt?

Beim Imperialismus geht es darum, dass ein Land groß und mächtig sein will. Das Land will über möglichst viele Gebiete herrschen, eine starke Armee sowie viel Einfluss in der Politik haben. Das lateinische Wort für ein Großreich ist Imperium. Daher kommt der Begriff Imperialismus.

Was führte zum Imperialismus?

Imperialismus, der Zeitraum zwischen 1880 und dem Ersten Weltkrieg, als die europäischen Großmächte Großbritannien, Frankreich, Russland und das Deutsche Kaiserreich sowie Japan und die USA in Konkurrenz zueinander in Afrika und Asien neue Kolonialreiche gründeten und eine neue Form des Kolonialismus und der ...

Was hat Imperialismus mit dem Ersten Weltkrieg zu tun?

Weltkriegs. Mehrere Faktoren sind es, die zum Ersten Weltkrieg führen: Schon in der ersten Phase der europäischen Expansion hatte es Konflikte zwischen den europäischen Kolonialmächten gegeben. In dieser Expansion, in der Rivalität der Industrienationen liegt die Hauptquelle für den 1.