Termine che indica un’ideologia o un atteggiamento favorevole all’espansione coloniale europea in Africa, soprattutto durante l’epoca coloniale.
Concetto che indica l’insieme di azioni politiche e atteggiamenti favorevoli all’emancipazione politica, economica e culturale dei popoli e dei paesi africani.
In ambito linguistico, l’africanismo è una voce o una locuzione che appartiene al latino utilizzato dagli scrittori provenienti dall’Africa, sia pagani che cristiani, durante l’età imperiale.
« Torna all'indice del dizionario