Logiciels à base de connaissances, les systèmes-experts exploitent le principe fondamental de l'IA : utiliser l'ordinateur pour traiter non de simples données, mais des notations symboliques et des concepts de déduction logique (par exemple la proposition : « Si telle condition X est remplie alors que telle autre Y ne l'est pas, on déduit une situation Z...). On peut ainsi formaliser le savoir de spécialistes d'un domaine particulier pour l'exploiter à l'aide de l'ordinateur, d'où l'appellation de « système-experts ». La structure informatique de tels logiciels comporte deux parties : la base de connaissances et le « moteur d'inférences ».

Les systèmes-experts sont actuellement développés sur des ordinateurs banalisés et tendent à s'intégrer dans les techniques du génie logiciel. De nouvelles méthodologies ont été développées, notamment pour élargir le goulet d'étranglement que constituent le recueil et la formalisation des connaissances auprès des experts : on s'oriente ainsi vers des ateliers de génie cognitif. La programmation par objets ou par contraintes est une autre voie prometteuse ; prenant en compte globalement un problème défini par ses composantes (les objets) et leurs relations (les contraintes), on peut résoudre de complexes problèmes d'ordonnancement ou d'analyse combinatoire.

En France, près de 500 systèmes-experts ont été recensés : un tiers seulement sont opérationnels ; les autres restent à l'état de maquette de faisabilité. La palette des applications est, en effet, très large et séduisante pour les concepteurs cogniticiens : évaluation des risques d'avalanches, prévision des nappes de brouillard, affectation d'un quai de gare pour les TGV, amélioration du trafic urbain, détection des pannes et maintenance prédictive des équipements...

La logique floue

Tandis que l'IA tend à simuler le raisonnement par des voies logicielles, les systèmes neuronaux ou neuromimétiques cherchent à élaborer des architectures d'ordinateurs dont le fonctionnement soit calqué sur celui de notre cerveau. Ils sont constitués d'un grand nombre d'éléments de calcul, appelés abusivement « neurones » artificiels, mais très interconnectés en réseau. D'où le nom de machines « annexionnistes » donné parfois à ces systèmes qui travaillent en parallèle à très grande vitesse de calcul sur des masses de données. C'est sur ce principe qu'est conçu l'ordinateur qui passe pour le plus puissant du monde : le Touchtone Delta System mis au point par la division supercalculateurs d'Intel. Ses 528 microprocesseurs en réseau fonctionnant en parallèle ont une puissance de 32 milliards d'opérations en virgule flottante par seconde...

Les applications des réseaux neuronaux commencent à émerger en reconnaissance des formes mais aussi en simulation et en prévision. En France, l'une des premières applications concerne la gestion de la distribution de l'eau domestique : plus d'un million de foyers de Paris Sud-Est sont alimentés par la Lyonnaise des Eaux de manière optimale à l'aide d'un processeur neuronal mis au point par le Laboratoire d'informatique avancée de Compiègne : lorsqu'il sera totalement installé, ce système, dont « l'apprentissage » a porté sur les chiffres d'une quinzaine d'années de consommation et de données pluviométriques, permettra de faire des économies considérables et d'obtenir une distribution d'eau de meilleure qualité.

Enfin, une nouvelle approche logicielle, la logique floue, vient améliorer la convivialité et l'emploi de ces outils d'intelligence artificielle : elle facilite la programmation des systèmes-experts et « assouplit » les réponses de l'ordinateur et des réseaux neuronaux, car elle prend en compte les notions d'incertitude, d'imprécision et d'ambiguïté qui caractérisent notre comportement. Grâce à cette logique « floue » – fondée sur la théorie des ensembles flous élaborée en 1965 par Lofti A. Zadeh à l'université californienne de Berkeley –, des notions qualitatives et quantitatives aussi vagues que : « grand », « beau », « jeune », « souvent », « presque »... pourront, dans un proche avenir, être interprétables par un ordinateur.

Trente-cinq ans après, la prédiction de John MacCarthy, créateur et promoteur du concept d'intelligence artificielle au MIT en 1956, est en passe d'être concrétisée : « Toute activité intelligente peut être décrite avec suffisamment de précision pour être simulée par une machine. »

Claude Gelé
Ingénieur mécanicien, Claude Gelé est journaliste scientifique et technique, spécialisé dans les technologies de pointe, notamment la productique et l'informatique industrielle. Il collabore à plusieurs revues professionnelles et magazines de prospective technologique, notamment Science & Technologie.