convergence

Cet article est extrait de l'ouvrage Larousse « Dictionnaire de la philosophie ».


Du latin cum vergere, « incliner ensemble vers ».

Mathématiques

Une suite un converge vers I si, pour tout ε > 0, il existe n0 tel que, pour tout n > n0, un – I < ε. Une suite de fonctions fn converge vers la fonction f si pour tout x, fn (x) converge vers f(x). Une suite de fonctions fn converge uniformément vers la fonction f si pour tout ε > 0 et pour tout x, il existe n0 tel que pour tout n > n0, fn (x) – f(x) < ε.

La notion de convergence de séries est – de fait – à l'œuvre très tôt en mathématiques ; la quadrature du segment de parabole par Archimède en est un exemple, la résolution du problème de De Beaune par Descartes au xviie s., en est un autre. Mais, longtemps, l'absence de méthodes infinitésimales satisfaisantes paralyse le développement de ce domaine de recherche. Leibniz, Wallis, Newton, Mercator s'engagent dans cette voie en découvrant d'importantes convergences (de limite π notamment) et les appliquant au calcul de surfaces et de volumes. Cauchy, vers 1820 donne toute sa rigueur à la définition de la convergence ; il est suivi par les du Bois-Reymond, Abel, Dirichlet, Dedekind, Weierstrass, dont les travaux soulignent l'importance de l'idée de convergence uniforme.

En probabilité, la notion de convergence est essentielle mais elle diffère de la notion classique : ainsi, dans la loi (faible) des grands nombres, la loi de probabilité de fréquence fn, se concentre, converge, autour d'une valeur p ; ici cela signifie qu'une distance fixée quelconque à p n'est dépassée qu'avec une certaine probabilité, qui devient petite si les épreuves sont en grand nombre.

Vincent Jullien