Ideologia o atteggiamento che riconosce al genere maschile un ruolo dominante sulla donna, basato sulla sua identità sessuale, e che tende ad attribuire all’uomo un ruolo predominante rispetto alla donna, manifestandosi attraverso il maschilismo.
« Torna all'indice del dizionario