Was ist Kolonialismus?

Kolonialismus bedeutet:
Ein Land nimmt ein anderes Land mit Gewalt ein.
Es bestimmt dort die Regeln und beutet Menschen oder Bodenschätze aus.

Von 1500 bis 1900 eroberten europäische Länder viele Gebiete weltweit.
Auch die USA taten das.

Sie wollten:

  • Land und Schätze nehmen.
  • Die Menschen zur Arbeit zwingen.

Viele Menschen wurden unterdrückt oder getötet.
Die Europäer sagten:
„Wir sind besser als die anderen.“
Das war eine Lüge.

Auch Deutschland hatte Kolonien.
Nach dem Zweiten Weltkrieg gab Europa die Kolonien langsam auf.
Manchmal gab es lange Kämpfe.

Bis heute gibt es Ungerechtigkeit wegen des Kolonialismus.

Newsletter

Auch während der sanierungsbedingten Schließung informieren wir Sie hier über die Geschehnisse hinter den Kulissen der Kunsthalle.