Grande Encyclopédie Larousse 1971-1976Éd. 1971-1976
F

formalisation dans les sciences humaines (suite)

Toutefois, il est impossible, et inutile, de tracer une limite précise séparant le formalisé du non-formalisé. Tout effort de rigueur dans les définitions et d’explicitation des postulats et des hypothèses fait partie du processus de formalisation, même s’il n’est pas poussé très loin. En ce sens, il semble difficile de parler, comme on le fait souvent, d’une « psychologie mathématique », bien qu’il existe deux revues ayant cette expression dans leur titre, et qu’il ait paru aux États-Unis un important Handbook of Mathematical Psychology. Au contraire, tout ce que nous avons dit tend à montrer que la formalisation ne définit ni un domaine qui lui serait propre ni même véritablement une méthode spécifique. On peut plutôt la considérer comme une des formes possibles de la démarche scientifique générale, forme caractérisée par l’emploi d’un langage aux propriétés particulières.


Les variétés de la formalisation

La démarche formalisatrice n’est pas unique. Si nous avons pu en dégager certains traits généraux, il ne faut pas conclure à une uniformité, qui ne serait possible que dans le cadre de théories beaucoup plus élaborées, et de portée plus générale, que celles qu’on peut rencontrer dans les sciences humaines. Pour explorer cette diversité, nous commencerons par faire sommairement l’histoire d’un problème, celui de la représentation des phénomènes d’apprentissage, puis nous verrons d’autres exemples, empruntés à des domaines très différents.

Dès les débuts de la psychologie expérimentale, on a accordé une grande importance à la courbe d’apprentissage, c’est-à-dire à la relation entre, d’une part, le temps, ou le nombre d’essais, ou toute autre variable exprimant l’aspect temporel du processus, et, d’autre part, une mesure de la performance. Obtenir empiriquement des points qui semblent s’organiser approximativement selon une courbe croissante n’est pas difficile, surtout lorsque ces points ne représentent pas des résultats individuels, mais des moyennes d’observations effectuées sur des groupes de sujets. Toutefois, si on veut être en mesure de raisonner sur de telles courbes, par exemple si on veut comparer avec quelque précision des courbes obtenues dans des conditions différentes, la simple constatation visuelle de cette organisation ne suffit plus : il faut disposer de moyens de décrire ces courbes de façon plus précise. Techniquement, ce n’est en général pas trop difficile : il y a longtemps que les statisticiens savent ajuster une courbe à un ensemble de points. Mais cet ajustement reste purement empirique : on n’a a priori aucune raison de choisir par exemple une logistique plutôt qu’une loi normale cumulée ou un polynôme bien choisi, fonctions qui toutes ont à peu près la même représentation graphique, et donc sont susceptibles de s’ajuster aussi bien au même ensemble de points. De cette façon, nous pouvons comparer les résultats obtenus par exemple dans des conditions différentes et vérifier statistiquement l’hypothèse que les courbes d’apprentissage sont effectivement différentes.

Mais, à côté de cet intérêt précis, et qui n’est pas négligeable, cette manière de faire présente au moins deux limites importantes. Tout d’abord, elle ne nous renseigne en rien sur le mécanisme même de l’apprentissage : la courbe décrit l’évolution de la performance, elle ne donne aucune indication sur le processus qui l’a engendrée. Deuxièmement, étant donné la très grande fluctuation de la plupart des comportements individuels, on est le plus souvent obligé, comme nous l’avons dit, de ne travailler que sur des valeurs moyennes ; or, des évolutions individuelles très différentes peuvent donner la même courbe des moyennes. On risque donc de commettre de grosses erreurs d’interprétation en admettant que les individus se comportent chacun de la façon décrite par la courbe des moyennes.

Pour ces raisons, on a cherché à construire des modèles du mécanisme d’acquisition, modèles dont on pourrait déduire non seulement la courbe d’apprentissage, mais aussi tout autre indice qui pourrait paraître pertinent et qu’on pourrait confronter aux observations. L’effort théorique de Clark Léonard Hull (1884-1952) a tendu vers la construction d’un système axiomatique très complexe, cherchant sous une forme parfaitement rigoureuse, partant de postulats explicites dont on déduit des théorèmes, à rendre compte de l’ensemble des faits connus dans le domaine de l’apprentissage. Cette entreprise ambitieuse n’a guère été poursuivie : si la théorie de Hull continue à avoir quelque influence, ce n’est pas par sa présentation formalisée, même si c’est à celle-ci qu’elle doit une part de son prestige, mais à la conception générale du comportement qu’elle exprime. Toutefois, il n’a guère été possible de maintenir avec une rigueur suffisante le projet de rendre compte d’un champ aussi vaste par une théorie unitaire.

Au début des années 50, un effort théorique nouveau apparaît. On ne cherche plus à élaborer une théorie rendant compte du plus grand nombre possible de phénomènes, mais de construire des modèles décrivant de façon précise et fine le comportement de sujets placés dans des conditions bien déterminées. Les modèles proposés avaient tous la caractéristique d’être probabilistes : ce que donnent ces modèles, ce n’est pas une prévision de la réponse que donnera le sujet, mais la probabilité de celle-ci, ce qui permet de raisonner au niveau individuel en intégrant les fluctuations du comportement, quitte ensuite à estimer ces probabilités en observant non pas un seul individu, mais un groupe de sujets supposé homogène.

Presque tous ces modèles résument complètement l’état d’un sujet à un moment donné par ses probabilités de réponse. À chaque essai, cette probabilité est modifiée en fonction de l’événement qui s’est produit, c’est-à-dire de ce qui s’est passé pour le sujet à la suite de sa réponse ; par exemple, la probabilité ne variera pas de la même façon selon que la réponse donnée a été récompensée ou non.