> > > naturismo


naturismo

Movimento che promuove un intenso e diretto contatto con la natura attraverso pratiche di vita semplice e schietta, come l’alimentazione prevalentemente vegetale e il nudismo, come forma di reazione agli eccessi della civiltà industriale e dell’urbanesimo. Inoltre, il naturismo può includere anche pratiche ginniche volte all’esaltazione della forza muscolare e delle possibilità fisiche.

Dottrina medica che si basa sulla convinzione che la natura abbia la capacità di guarire le malattie e che la terapia debba essere circoscritta all’ausilio delle difese naturali del corpo.

Pratica sociale che promuove la nudità come espressione di libertà e vicinanza alla natura, spesso associata a luoghi e attività all’aperto, come spiagge, campeggi e escursioni.

« Torna all'indice del dizionario