Le colonialisme
Le colonialisme désigne l’occupation organisée au niveau étatique d’un territoire et la domination violente de sa population. Entre le XVe et le XXe siècle, des hommes et des femmes venu.e.s d’Europe, puis des États-Unis, ont colonisé une grande partie de l’Afrique, de l’Asie, de l’Amérique et de l’Australie afin d’y exploiter les populations et les ressources. Ils ont opprimé, réduit en esclavage et tué les communautés locales, justifiant leurs actes par des idéologies racistes inventées après coup et prônant une prétendue supériorité. L’Empire allemand avait lui aussi des colonies. Les processus de décolonisation ont commencé après la Seconde Guerre mondiale, mais ont souvent été retardés par de longues négociations, des résistances politiques ou des conflits violents. De nombreux États européens ont refusé l’indépendance aux régions colonisées jusque dans les années 1970. Les conséquences se font encore sentir aujourd’hui sous la forme d’inégalités structurelles.