> > > femminismo


femminismo

Il femminismo è un movimento che mira a riconoscere il ruolo sociale e politico della donna e a conseguire una parità civile, politica ed economica tra i sessi. Nato nell’Ottocento, il movimento ha esteso le sue rivendicazioni a ogni campo della vita sociale, con l’obiettivo di valorizzare la sensibilità e la cultura femminile e di raggiungere la completa emancipazione della donna sul piano economico, giuridico e politico. Il femminismo auspica un cambiamento radicale della società e del rapporto tra uomo e donna, attraverso la liberazione sessuale e l’abolizione dei ruoli tradizionalmente attribuiti alle donne.

« Torna all'indice del dizionario