Tendenza di uno stato a estendere la propria supremazia politica, economica e culturale su territori stranieri, attraverso la conquista militare, l’annessione territoriale e lo sfruttamento economico di altre nazioni, al fine di costituire un impero e di esercitare egemonia su altre nazioni. In senso lato, l’imperialismo rappresenta un’ambizione di potenza e di supremazia politica ed economica.
« Torna all'indice del dizionario