biologisme

nom masculin

Définitions de biologisme


  • Doctrine qui considère que les phénomènes individuels et/ou collectifs qui affectent l'homme doivent être analysés avec les méthodes de la biologie.