Que veut dire « colonialisme » ?

Selon les dictionnaires d'Oxford, le "colonialisme" signifie "la politique consistant à acquérir un contrôle politique total ou partiel sur un autre pays, à l'occuper avec des colons et à l'exploiter économiquement." De nombreux pays et empires, de les Grecs aux Américains, se sont engagés dans le colonialisme.

L'Encyclopédie de philosophie de Stanford soutient que le colonialisme est très similaire à l'impérialisme ; cependant, il fait une distinction entre les deux, affirmant que l'impérialisme n'est généralement qu'une domination alors que le colonialisme exige que le pouvoir dominant envoie des colons qui changent le caractère de la nation dominée. Par exemple, l'Amérique s'est engagée dans le colonialisme lorsqu'elle a dépouillé les Indiens d'Amérique de leurs terres et a installé des familles blanches à leur place, mais elle s'est engagée dans l'impérialisme lorsqu'elle a pris les colonies espagnoles de Porto Rico et des Philippines. Le colonialisme n'est pas une innovation récente ; la Grèce antique a colonisé une grande partie de la mer Méditerranée, implantant des colonies en Sicile, en Asie Mineure et sur la côte nord-africaine.