machine

Cet article est extrait de l'ouvrage Larousse « Dictionnaire de la philosophie ».


Du latin machina, « invention », « appareil », « engin de guerre ».


Le pouvoir des machines effraie. La philosophie mécaniste est accusée d'avoir produit un type d'intelligibilité du monde qui éloigne de l'homme toute préoccupation pour ce que Husserl nomme le « présent vivant ». Ainsi la théorie de l'animal-machine, dont l'origine est chez Descartes, est-elle posée (chez Michel Henry, La Barbarie, Grasset, Paris, 1981) comme l'origine même de la barbarie nazie. Pourtant nous n'aurions ni médecine, ni recherche expérimentale sur le corps si la décision n'avait pas été prise, par Descartes et par d'autres, d'ouvrir, au moyen de la pensée des machines, l'intimité des corps. La modélisation mécaniste est partout le signe d'un effet de réduction (du corps, de la pensée), mais cette réduction n'est-elle pas consubstantielle à tout effet de savoir ?

Philosophie Générale

Moyen artificiel subordonné à une fin. À la différence de l'outil simple, dont la force et l'efficacité dépendent de l'opérateur humain, la machine tend à l'autonomie motrice et directrice, inscrivant dans un automatisme matériel les projections les plus complexes de la pensée.

Au-delà de l'objet technique, la machine a fonctionné, pour la pensée, comme un principe d'intelligibilité et comme une utopie sociale.

À partir du xviie s., la réalité machinique joue, en effet, un rôle majeur dans la construction de la modernité philosophique. Fille naturelle du paradigme physico-mathématique de Galilée et Descartes, la machine démontre avec éclat que l'existence animée peut être séparée de tout finalisme. La possibilité d'inscrire dans la matière inerte l'apparence d'une intentionnalité complexe, de singer mécaniquement la pensée et le vivant, fait de la machine le nouvel horizon d'intelligibilité, se substituant à la conception antique d'un monde doté de vie et de volonté. La machine, en ce sens, tout en affirmant la puissance humaine, vide l'univers de ses dieux ou ne laisse à ses derniers, comme chez Descartes(1), que le rôle du premier moteur. Dès lors, il n'y a plus au monde que divers degrés de machines, visibles ou invisibles, humaines ou divines(2).

Si tout le corporel relève de la machine, se pose la question de la spécificité du spirituel. La Mettrie(3) dépassera Descartes en faisant de l'homme un animal-machine comme les autres. C'est dire que la machine contraint à l'introspection, mettant au jour le machinal dans le spirituel. La psychanalyse et le structuralisme révéleront la machinerie inconsciente ou sociale qui commande à la volonté « libre ». Peu à peu, l'homme en vient à se définir négativement comme ce que ne peut (encore) être la machine, « organisme mineur »(4) capable de simuler toujours mieux la liberté et la conscience. L'expérience de Turing(5) vise ainsi à montrer que, en droit, ce sont bien les résultats, et non les moyens employés, qui sont critères d'intelligence : si une machine peut nous faire croire qu'elle est intelligente, alors elle l'est.

Socialement, la machine libère une force de production qui entre directement en concurrence avec les hommes. Le machinisme industriel, analysé par Marx(6), édicte de nouvelles normes qui s'imposent à la main-d'œuvre. La perfection intellectuelle du mécanisme ouvre la voie à une société où corps et pensée seraient agencés comme les rouages d'une horloge, éliminant hasard, anomalie et incertitude, tout en permettant une complète aliénation. Inversement, la puissance de production machinique, débarrassant l'homme de la malédiction du travail, pourrait aider à renouer avec un éden fraternel(7). La machine est ainsi porteuse d'utopies sociales foncièrement ambivalentes.

Dalibor Frioux

Notes bibliographiques

  • 1 ↑ Descartes, R., Le monde ou Traité de la lumière, chap. VI et VII.
  • 2 ↑ Descartes, R., Principes de la philosophie, IV, 203 ; Leibniz, G. W., Monadologie, § 64.
  • 3 ↑ La Mettrie, J. O. (de), L'homme-machine, Flammarion, Paris, 1999.
  • 4 ↑ Mumford, L., Technique et Civilisation, Seuil, Paris, 1950.
  • 5 ↑ Turing, A., La machine de Turing, Seuil, Paris, 1999.
  • 6 ↑ Marx, K., Le capital, livre I, 4e section, chap. XV. Trad. J. Roy, 1969, Flammarion, Paris, 1985.
  • 7 ↑ Aristote, Les politiques, IV, 3. Trad. J. Tricot, 1962, Flammarion, Paris, 1990.

→ aliénation, mécanisme, nature, organisme, science, technique, travail




machine logique, machine de Turing


D'après le logicien britannique Alan Mathison Turing (1912-1954).

Logique, Philosophie de l'Esprit

Automate abstrait consistant en un programme (ensemble fini d'instructions élémentaires) destiné à être exécuté sur un ruban infini par une tête de lecture-écriture équipée d'une mémoire finie. Les suites de symboles qui figurent successivement sur le ruban de la machine représentent des entiers naturels. On dit que la machine calcule la fonction f si l'exécution de son programme s'achève avec une représentation de l'entier f(n) sur son ruban (en « sortie ») chaque fois que le ruban contient initialement (en « entrée ») une représentation de l'entier n.

Une machine de Turing est déterminée par un ensemble d'instructions du type qSSXq′ (« si le symbole S est lu alors qu'on est dans l'état q, écrire S′, se mouvoir de 0 ou de 1 pas dans la direction X, et se mettre dans l'état q′ ») :

En décrivant un tel dispositif, Turing(1) avait pour objectif de caractériser le comportement du « calculateur humain » de la manière la plus générale. Il parvint par ce biais à une définition des fonctions effectivement calculables qui coïncide avec les définitions qui en avaient été par ailleurs proposées à la même époque, si bien que l'analyse de Turing peut être considérée comme une caractérisation « absolue » de la notion de calculabilité par algorithme. Turing montre, par ailleurs, que le « problème de l'arrêt » n'a pas de solution effective : il ne saurait exister de machine capable, étant donnés un entier n et la description d'une machine M, de déterminer si la machine M s'arrêtera ou non avec un résultat lorsqu'on lui donne l'entier n en entrée ; de ceci résulte l'indécidabilité du calcul des prédicats. Par ailleurs, la notion d'état interne d'une machine de Turing a été souvent tenue pour une explication plausible de ce que pourrait être un « état mental » d'un agent humain.

Jacques Dubucs

Notes bibliographiques

  • 1 ↑ Turing, A., On Computable Numbers, With an Application to the Entscheidungsproblem, trad. française in J.-Y. Girard, la Machine de Turing, Seuil, Paris, 1995, pp. 47-102.

→ calculabilité, Church (thèse de), décidabilité, effectivité




Les machines intelligentes sont-elles l'avenir de l'homme ?

On a soutenu que les progrès des biotechnologies et des sciences médicales déplaçaient tellement les frontières du naturel et de l'artificiel qu'ils conduisaient à redéfinir la nature humaine. Peut-on en dire autant des progrès fulgurants de la robotique, des ordinateurs et de l'intelligence artificielle (IA) depuis une quarantaine d'années ? S'il semble indéniable que les biotechnologies ont modifié profondément notre conception du vivant, il est moins clair que les technologies informatiques et l'IA aient réellement modifié notre conception de la pensée et de la personne humaine, car nous sommes, à leur égard, partagés entre deux intuitions, l'une pessimiste et l'autre optimiste. D'un côté, ces progrès font craindre que l'homme n'ait construit quelque nouveau golem, ou que, comme dans les scénarios de science-fiction, les humains finissent par devenir les esclaves d'un peuple de robots. De l'autre, nous nous sentons suffisamment certains que, quels que puissent être les progrès des machines intelligentes, elles ne pourront jamais être réellement intelligentes, au sens où elles pourraient penser comme nous. Mais est-ce bien l'alternative à laquelle nous sommes confrontés ?

L'intelligence artificielle forte est-elle possible ?

Pour essayer de répondre à la question de savoir si les machines intelligentes peuvent ou non modifier l'espèce humaine, il faut avant tout se demander ce qu'elles sont capables de faire, et en quel sens elles peuvent être des machines intelligentes. Cette question se décompose à son tour en deux autres : que peuvent-elles faire en principe et que font-elles effectivement, étant donné l'état présent de notre technologie ? Commençons par la première question, qui engage une théorie générale de l'esprit et des phénomènes mentaux. Dans un article célèbre, A. Turing, le principal fondateur, avec J. von Neumann, de la théorie de l'intelligence mécanique, proposa d'abord une conception de ce qu'est la pensée ou l'intelligence : un calcul sur des symboles définis exclusivement en vertu de leur forme et de leur syntaxe. Il définit aussi le concept de mécanisme approprié, celui de la « machine de Turing ». Dans un article célèbre, Turing proposa aussi un « test » pour déterminer si une machine est intelligente, test qui repose essentiellement sur le fait que, si les réponses d'une machine qui imite un questionneur humain sont capables de tromper ce dernier sur son identité de machine, il n'y a pas de raison de refuser d'attribuer la capacité de penser à la machine(1). Turing pensait qu'on parviendrait un jour à produire de telles machines. Le test de Turing et sa conception de l'intelligence artificielle peuvent en fait être interprétés en deux sens. D'abord, en un sens instrumentaliste, proche de ce que suggère l'idée que l'intelligence est ce qui répond à un test : si une machine peut simuler l'intelligence, et faire comme si elle avait un certain nombre, voire la majorité, des propriétés de l'intelligence humaine ; alors, il n'y a pas de raison de lui refuser l'intelligence. C'est ce que l'on appelle l'IA faible. L'IA forte, au contraire, prend la proposition de Turing à la lettre, et soutient que des ordinateurs programmés de manière appropriée auront réellement une intelligence, au même sens que nous. C'est de cette conception que l'IA et les sciences cognitives « classiques » ont hérité : une pensée est un calcul sur des représentations sous-tendues par des processus computationnels discrets, exemplifiant ceux d'une machine de Turing. Cette conception est souvent résumée par la célèbre métaphore du cerveau comme ordinateur ; mais il n'est pas nécessaire de supposer une telle identification, il suffit que les processus mentaux soient traités comme des états d'une machine de Turing, l'ordinateur en étant une réalisation contingente. Supposons donc que le projet de l'IA forte se réalise, et qu'un jour on produise des robots réellement pensants, et qu'ils viennent à être indiscernables des humains biologiques et puissent en accomplir toutes les fonctions, y compris reproductrices. La découverte que nos voisins, nos amis ou même nos parents sont de tels robots ne différerait pas beaucoup de la découverte que nous sommes aussi de tels robots. Mais il n'y a même pas besoin de science-fiction pour entretenir l'hypothèse. Sans qu'on ait à attendre les progrès technologiques qui feront se promener parmi nous nos clones robots, on peut soutenir, si l'on suppose vraie au sens littéral la conception de la pensée de Turing, que nous sommes des machines : le processus de l'évolution, si on admet les thèses néodarwiniennes(2), est un processus mécanique, et ses produits vivants sont eux-mêmes des machines. La conscience et l'intelligence humaines sont elles-mêmes des « machines virtuelles » surajoutées sur des strates cérébrales antérieures à l'évolution des primates aux humains(3). Si nous sommes déjà des machines, pourquoi devrait-on s'inquiéter de ce que nous puissions devenir des machines ? Poser la question ainsi revient simplement à admettre le mécanisme. Nous refusons en général cette perspective, parce qu'elle nous semble incompatible avec le sentiment que nous avons de notre liberté. On peut aussi soutenir que ce sentiment est illusoire, ou que notre liberté est compatible avec le mécanisme. Bref, notre question se ramène simplement à celle de savoir si le déterminisme (dont le mécanisme à la Turing est une espèce) est compatible avec le libre arbitre. La création de robots pensants serait une illustration concrète du problème, mais elle le laisserait tout aussi irrésolu qu'il peut l'être à présent.

L'intelligence artificielle faible est bien faible

L'IA faible a l'avantage d'éluder le problème ; elle se contente d'affirmer modestement qu'on peut simuler un certain nombre de caractéristiques de l'intelligence humaine au moyen d'ordinateurs, et correspond de facto aux avancées de la robotique et de l'informatique contemporaines, qui ne sont pas minces. Supposons donc qu'on se donne un objectif modeste, en repoussant vers un hypothétique futur toute ambition de vouloir reproduire sur une machine toutes les fonctions mentales, et supposons qu'on renonce à vouloir doter un système artificiel des sensations, émotions, et autres états non purement « cognitifs » qui font le charme et la variété de la vie mentale humaine, en nous limitant uniquement à la modélisation de fonctions cognitives, telles que juger, concevoir et raisonner, pour lesquelles les machines sont supposées, au moins dans des contextes spécifiques (jouer aux échecs, résoudre des problèmes mathématiques, etc.), avoir de bonnes performances. Et supposons, en limitant ainsi le sens de notre notion vague et plurivoque de « pensée », que la pensée soit bien le traitement syntaxique de représentations selon le modèle du calcul à la Turing. Nous rencontrerons alors au moins deux problèmes (que J. R. Searle a bien mis en valeur dans une expérience de pensée célèbre, celle de la « chambre chinoise »(4)). Le premier est que l'intelligence ou la pensée s'y trouve définie indépendamment de toute référence aux objets extérieurs ; seules les caractéristiques internes des symboles, ou représentations, traités par une machine comptent, et pas les propriétés par lesquelles les pensées s'ancrent dans un mode extérieur. Or, pour avoir une intelligence, il faut avoir une relation à un monde perçu et avoir une histoire. Ce problème est étroitement lié au second : les processus mentaux, tels que les définit l'IA classique, sont sensibles exclusivement à des propriétés formelles des représentations, et non pas au contexte. Mais raisonner n'est pas simplement exemplifier des structures formelles d'inférence, c'est aussi être capable de modifier ses stratégies selon les contextes et de situer les propriétés qui font l'objet d'une cognition quelconque dans un cadre plus large que celui du seul contexte local. Or, cette situation de la cognition ne peut pas être elle-même calculée par un algorithme ni déterminée d'avance. C'est ce qu'on appelle le problème du « cadre » pour l'IA classique ; il ne suffit pas pour être intelligent de manipuler des représentations, il faut aussi manipuler des représentations pertinentes. Malgré l'existence d'un modèle rival de celui de l'IA classique, le connexionisme, ou les modèles des réseaux neuronaux, qui repose sur d'autres principes de computation, ces obstacles n'ont pas été résolus. Par conséquent, même si l'on n'assigne pas des objectifs aussi ambitieux à l'IA que celui de reproduire totalement l'intelligence ou la pensée humaines, et si l'on admet que nombre de ses réussites sont locales – on est capable de reproduire des capacités élémentaires, par exemple de créer des insectes artificiels –, le problème principal est qu'elle ne permet de modéliser que des propriétés d'une intelligence modulaire. La modularité est la propriété d'un système de traitement de l'information de traiter celle-ci de manière cloisonnée, automatique et relative à un domaine spécifique. C'est la propriété de nombreux phénomènes mentaux – de la sensation, du traitement du langage et de l'inférence, peut-être de nombreuses capacités conceptuelles. Mais, quoi que puisse vouloir dire « penser », « être intelligent » ou même « raisonner », l'intelligence et la pensée ont des propriétés globales et non modulaires ou locales, dont l'IA, malgré ses succès partiels, n'est pas parvenue à rendre compte. On a souvent dit (par exemple, le mathématicien R. Penrose) que le théorème de Gödel montre les limites de l'intelligence machinique et son incapacité à saisir des propriétés comme l'intuition. Mais il n'est pas nécessaire de recourir à des facultés (plus ou moins mystérieuses) telles que l'intuition pour comprendre les limites de l'IA ; elles résident plutôt dans son incapacité à rendre compte du caractère holistique de la pensée. C'est ce caractère, qu'on appelle l'abduction, qui fait, par exemple, qu'on ne choisit pas une hypothèse plutôt qu'une autre, qu'on décide ou non de modifier cette hypothèse face à des données récalcitrantes ou bien plutôt la théorie qui sous-tend l'hypothèse. Et même des raisonnements élémentaires conduisant à changer nos croyances résistent encore à la modélisation.

En l'état actuel de ce que nous savons – et surtout de ce que nous ignorons – sur l'intelligence et la cognition humaines, et compte tenu de l'échec de la théorie computationnelle de l'esprit à rendre compte de l'intelligence naturelle et de l'IA à produire des robots vraiment intelligents, il n'y a pas lieu d'espérer ni de craindre le scénario d'un monde de robots. Cela ne signifie pas que la robotique et l'intelligence artificielle ne continueront pas à progresser, et qu'elles aient la capacité de modifier profondément la vie sociale et individuelle des humains. L'implantation de micro-ordinateurs pour stimuler des organes vivants, les progrès du diagnostic médical assisté par ordinateur, le rôle croissant de l'Internet dans les échanges, la disparition annoncée du livre, etc., tous ces changements induits par les technologies de l'information et de la communication sont certainement de nature à modifier beaucoup de choses. Mais ils le sont tout autant que les progrès techniques antérieurs, et même s'ils posent des problèmes éthiques, sociaux et économiques inédits, on ne voit pas en quoi ils poseraient des problèmes sensiblement différents ni en quoi ils modifieraient nos vies dans des proportions plus grandes que l'ont fait tous les progrès techniques depuis le début de la révolution industrielle. Inutile, donc, de transformer l'IA en loup ou en golem. L'homme est un golem pour l'homme, et c'est déjà assez.

Pascal Engel

Notes bibliographiques

  • 1 ↑ Turing, A. M., « Computing Machinery and Intelligence », in Mind, 59, pp. 433-460, 1950 ; trad. la Machine de Turing, Seuil, Paris, 1999.
  • 2 ↑ Dawkins, R., The Selfish Gene, Oxford University Press, Oxford, 1976 ; trad. le Gène égoïste, Odile Jacob, Paris, 1996.
  • 3 ↑ Dennett, D., Darwin's dangerous idea, Little Brown, New York, 1995 ; trad. Darwin est-il dangereux ?, Odile Jacob, Paris, 2000.
  • 4 ↑ Searle, J. R., Minds, Brains and Science, MIT Press, Cambridge Mass, 1984 ; trad. Du cerveau au savoir, Hermann, Paris, 1985.
  • Voir aussi : Fodor, J., The Mind does not Work that Way, MIT Press, Cambridge Mass, 1999.
  • Penrose, R., The Emperor's New Mind, Oxford University Press, Oxford, 1989 ; trad. l'Esprit, les Ordinateurs et les Lois de la physique, Interéditions, Paris, 1993.

→ abduction, chambre chinoise (argument de la), intelligence artificielle, machine