La fin des empires coloniaux
Publié le 11/04/2019
Extrait du document
La fin des empires coloniaux
Après la Seconde Guerre mondiale, dont les principaux vainqueurs sont les Etats-Unis et l'Union soviétique, désormais chacun à la tête d'un bloc de pays, les puissances coloniales européennes, au premier rang desquelles figurent la France et la Grande-Bretagne, sont affaiblies et souffrent d'une perte de prestige. Dans tous les pays qu'elles dominent, les courants nationalistes d'avant-guerre se font plus virulents. La marche vers l'indépendance des colonies semble inéluctable, surtout après la perte par la Grande-Bretagne du joyau de son empire, l'Inde, indépendante en 1947. Commencée en Asie, la décolonisation gagne en effet le continent africain dès la fin des années cinquante. Mais elle est entravée par de nombreux obstacles dus au contexte international de la guerre froide (c'est le cas de l'Indochine) ou encore à la présence de colons d'origine européenne (comme en Algérie).
Liens utiles
- La fin des Empires européens
- « Les grandes découvertes » et « La formation des premiers empires coloniaux »
- L'EMPIRE BRITANNIQUE: Le plus étendu des empires coloniaux
- Les empires coloniaux dans le monde au 19e siècle
- LES IMPÉRIALISMES EUROPÉENS ET LES EMPIRES COLONIAUX