In campo medico, si intende per virilismo l’insieme di tratti fisici e psicologici tipicamente maschili che possono manifestarsi in una donna.
Ideologia che esalta la virilità, sia personale che altrui, e che spesso sfocia in un maschilismo esasperato.
« Torna all'indice del dizionario