Aggettivo che indica ciò che è connesso al vitalismo, ovvero l’insieme di teorie e dottrine filosofiche che attribuiscono un ruolo fondamentale alla forza vitale come principio attivo dell’universo e della vita stessa.
« Torna all'indice del dizionario