Kolonialismus

Kolonialismus bezeichnet die staatlich organisierte Besetzung eines Gebiets und die gewaltsame Herrschaft über dessen Bevölkerung. Zwischen dem 15. und 20. Jahrhundert besiedelten europäische und später US-amerikanische Akteur*innen große Teile Afrikas, Asiens, Amerikas und Australiens, um Menschen und Ressourcen auszubeuten. Lokale Gemeinschaften wurden unterdrückt, versklavt und getötet – gerechtfertigt durch nachträglich erfundene, rassistische Ideologien von vermeintlicher Überlegenheit. Auch das Deutsche Kaiserreich unterhielt Kolonien. Die Dekolonialisierungsprozesse begannen nach dem Zweiten Weltkrieg, wurden aber oft durch langwierige Verhandlungen, politischen Widerstand oder gewaltsame Konflikte verzögert. Bis in die 1970er Jahre verweigerten viele europäische Staaten den kolonisierten Regionen ihre Unabhängigkeit. Die Folgen wirken bis heute in Form struktureller Ungleichheiten nach.

Textgrundlage: IDA e.V. – Glossar

Newsletter

Auch während der sanierungsbedingten Schließung informieren wir Sie hier über die Geschehnisse hinter den Kulissen der Kunsthalle.