complexité

Cet article est extrait de l'ouvrage Larousse « Dictionnaire de la philosophie ».

Épistémologie, Philosophie Cognitive

Dans la théorie algorithmique de l'information, taille minimale de la description algorithmique d'une information. 1. D'un point de vue probabiliste, c'est l'entropie d'un objet constitué d'un ensemble d'éléments, mesurée par la probabilité de réalisation de la combinaison qui détermine cet objet. – 2. Dans un sens non formalisé, c'est le caractère d'un objet constitué par l'interaction non analysable entre différents niveaux d'organisation.

La réflexion autour de la notion de complexité algorithmique prend sa source dans la question formulée par Hilbert au sujet de l'existence d'un algorithme, qui, dans le cadre d'un système formel, permette de décider en un nombre fini d'opérations si une proposition du système est vraie ou fausse. À ce « problème de la décision », les travaux de Gödel (1931) et de Turing (1936) ont apporté une réponse négative et ont orienté la recherche vers la détermination de la complexité algorithmique comme mesure de la difficulté des problèmes dont la solution est connue. Un problème est d'autant plus complexe que le programme qui le résout, implémenté sur une machine universelle, est long (Chaitin et Kolmogorov vers 1965). La notion de « programme » génétique témoigne de la tentation d'étendre le champ des théories algorithmiques à la caractérisation des processus vivants. Mais, ainsi que le souligne H. Atlan(1), ce projet se heurte à la difficulté de déterminer la fonction associée à une structure particulière et à la critique du finalisme. H. Atlan a proposé d'appeler « complication » la complexité algorithmique pour réserver la notion de « complexité » à ce qui représente pour la connaissance une limitation intrinsèque. Ce sont alors des processus, des dynamiques, qui sont visés plus que des états. Il s'agit d'une complexité relationnelle, organisationnelle qui rend possible l'émergence de structures cohérentes mais parfois imprédictibles, et de comportements erratiques mais sous-tendus par des lois déterministes. La physique non linéaire a identifié ces organisations émergentes au sein de systèmes dissipatifs tenus loin de l'équilibre thermodynamique par une relation de couplage avec l'environnement(2). La production d'entropie ne conduit pas le système à l'homogénéité de l'état d'équilibre mais se traduit ici par l'existence de corrélations à longue échelle qui invalident une description en terme de mouvements ou de parties indépendantes. La non linéarité des lois d'évolution marque les limites de la méthode analytique et induit une détermination mutuelle du tout et des parties, constitutive de ce que E. Morin(3) appelle l'« unitas multiplex ».

Le monde que décrit une physique du complexe ne plus être exempté de l'irréversibilité, de l'indétermination, des relations d'interdépendance, qui caractérisent le monde dans lequel le vivant évolue et se constitue. Et en retour, l'organisation vivante en tant que structure dissipative soumise aux contraintes d'un milieu extérieur peut être intégrée à l'ensemble des systèmes décrits par les lois de la physique.

Isabelle Peschard

Notes bibliographiques

  • 1 ↑ Atlan, H., les Théories de la complexité. Autour de l'œuvre d'Henri Atlan (colloque de Cerisy), Seuil, Paris, 1991.
  • 2 ↑ Prigogine, I., la Fin des certitudes, Odile Jacob, Paris, 1996.
  • 3 ↑ Morin, E., Introduction à la pensée complexe, ESF éditeur, Paris, 1990.

→ chaos, complexe, émergence, entropie, interaction