Grande Encyclopédie Larousse 1971-1976Éd. 1971-1976
E

erreur (suite)

Erreur systématique

L’erreur systématique est celle qui subsiste à peu près inchangée dans la moyenne d’un grand nombre de résultats de mesures répétées. Elle existe toujours faute d’une prise en compte complète des phénomènes en jeu et faute d’une appréciation exacte de l’influence des phénomènes dont on tient compte pendant l’opération de mesure. C’est ainsi que, si les deux bras du fléau d’une balance n’ont pas la même longueur, l’équilibre s’obtient avec des corps dont la masse est dans le rapport de ces longueurs, et non la même, au cas où l’on n’opère pas par double pesée de Gauss ou de Borda. Dans la pesée d’un corps peu dense par comparaison à des étalons de masse plus denses, la masse mesurée de ce corps sera inférieure à la masse vraie si l’on néglige la poussée d’Archimède de l’air, qui tend à soulever ce corps plus que les étalons de masse. Des causes d’erreurs systématiques inconnues ou méconnues subsistent pratiquement toujours dans les mesures, même les plus soignées. Un procédé simple et efficace pour découvrir et éviter ces erreurs est le retournement, car l’influence perturbatrice peut alors s’inverser et s’éliminer de la moyenne. Si, par exemple, on lance un courant électrique dans un conducteur pour comparer sa résistance à celle d’un étalon, le résultat de la mesure change lorsqu’on inverse le sens du courant à cause des forces thermo-électriques, et la moyenne des deux résultats est affranchie de l’erreur systématique due à ces forces. Il est bon de retourner ou d’inverser tout ce que l’on peut, même si l’on n’en voit pas l’utilité. Plus généralement, si l’on peut concevoir plusieurs méthodes opératoires pour mesurer une même grandeur, les causes d’erreurs systématiques ont des chances d’être différentes, et le désaccord des résultats décèle l’existence d’erreurs systématiques qui seraient autrement ignorées. Pour évaluer l’erreur systématique, on recense les facteurs que l’on n’a pas bien pris en compte, soit qu’on ait estimé négligeable leur influence, soit qu’on ait estimé impossible ou trop coûteux de les contrôler plus exactement qu’on ne l’a fait. Par un calcul approché, on évalue pour chacun d’eux la valeur maximale que l’erreur correspondante peut atteindre et l’on en déduit l’erreur maximale d’ensemble sur le résultat de la mesure. Si le recensement est complet et si les évaluations ne sont ni surestimées ni sous-estimées, ces erreurs limites sont correctes. Leur petitesse est une mesure de la justesse du processus de mesure. La justesse est la qualité qui exprime à quel degré on s’est affranchi des erreurs systématiques, à quel degré les résultats ne sont pas biaises. Elle est bonne même si les résultats de mesures répétées sont dispersés (peu précis), pourvu que la moyenne d’un grand nombre soit près de la valeur vraie.


Erreur aléatoire

L’erreur aléatoire est celle qui varie d’une façon imprévisible lorsqu’on répète les mesures et que l’on estime justiciable des théories statistiques. Elle diminue et tend vers zéro dans la moyenne de résultats en nombre infini. Un processus de mesure correctement conçu pour la détermination de la valeur numérique d’une grandeur physique constante, c’est-à-dire invariable pendant la durée de la mesure, doit permettre d’envisager une série de n observations comme un échantillon aléatoire de la population mère de toutes les observations que l’on peut imaginer dans la mise en œuvre de ce processus. Un tel processus est précis lorsque l’écart type des valeurs observées σ est petit. Cet écart type, ou écart quadratique moyen, qui est une indication quantitative de la dispersion des résultats autour de la valeur moyenne, ne dépend que du processus de mesure (puisque la grandeur est supposée constante) et caractérise l’erreur aléatoire. La précision du processus de mesure est l’étroitesse de l’accord entre les résultats de mesures répétées. La précision (fidélité) peut être bonne, même si les résultats de mesures répétées sont groupés autour d’une valeur moyenne qui diffère de la valeur vraie à cause d’une erreur systématique, pourvu que ces résultats soient peu dispersés.

• Traitement des erreurs aléatoires. On considère pratiquement une série de mesures comme un échantillon aléatoire de l’ensemble infini de mesures possibles (population mère). La statistique permet d’estimer les paramètres de la population mère à partir d’un tel échantillon. Soit n la taille de l’échantillon et soit xi la valeur numérique de la i-ème mesure ; la moyenne arithmétique

est une estimation de la moyenne de la population mère μ (l’espérance mathématique), et le carré de l’écart type estimé

est une estimation de la variance σ2 de la population mère. Ces estimations sont approchées ; les quantités et sont encore des variables aléatoires, alors que les paramètres μ et σ2, qu’elles tentent de cerner, ont des valeurs définies.

Lorsque l’échantillon appartient à une distribution normale (courbe de Gauss), on peut calculer des intervalles aléatoires contenant les paramètres à estimer avec une probabilité donnée, qui s’appelle le niveau de confiance. Cette même distribution permet de répondre à une question qui se pose fréquemment à l’expérimentateur. Une grandeur physique est mesurée dans des conditions aussi constantes que possible, et l’on forme la moyenne arithmétique à partir de n résultats de mesure. La mesure est ensuite reprise dans des conditions différentes en modifiant par exemple une grandeur d’influence, et l’on obtient une moyenne arithmétique légèrement différente de . La différence est-elle réelle ou imputable au hasard ? La distribution de Student donne les valeurs de à partir desquelles la différence est significative avec un niveau de confiance donné. Lorsque l’on dispose de K séries de n mesures réalisées avec le même processus, échelonnées dans le temps, les méthodes de la statistique permettent d’examiner si les séries ont toutes la même espérance mathématique. On utilise à cette fin l’analyse de la variance qui introduit la variance à l’intérieur de chaque série et la variance entre les séries. Lorsque cette dernière est considérablement supérieure à la première, on peut en déduire, à l’aide de la loi F de Fisher-Snedecor, si les différences entre les moyennes sont significatives avec un niveau de confiance donné.

Ces méthodes permettent, en particulier, de contrôler la stabilité du processus de mesure. D’autres méthodes, telles que les tests de tendances ou les corrélations, permettent de mettre en évidence et de corriger des erreurs systématiques variables avec le temps, en particulier les dérives.