Le concept des systèmes experts, qui constitue une des pierres angulaires dans l’évolution de l’intelligence artificielle, remonte aux années 1950 et 1960 où des avancées significatives en informatique et en logique ont pavé la voie pour les premières incarnations de ce qui serait plus tard connu sous le nom d’intelligence artificielle (IA). Les systèmes experts sont des programmes informatiques conçus pour imiter le raisonnement d’un expert humain dans un domaine spécifique en prenant des décisions qui, dans un contexte traditionnel, nécessiteraient une expertise humaine.
Dans les années 1950, l’informatique en était à ses balbutiements mais les progrès rapides dans les technologies de matériel et les théories de programmation ont mis la possibilité de l’automatisation du raisonnement à portée de main. À cette époque, les ordinateurs commençaient tout juste à être utilisés pour des tâches au-delà des calculs numériques de base, et l’idée qu’ils pourraient un jour imiter des processus de pensée complexes était à la fois révolutionnaire et controversée.
L’un des premiers systèmes qui pourrait être qualifié de système expert était le Logic Theorist, développé par Allen Newell et Herbert A. Simon, qui est souvent cité comme le premier programme d’intelligence artificielle. Présenté en 1956, le Logic Theorist était capable de prouver des théorèmes de logique symbolique en utilisant une méthode de recherche d’arbre qui imitait la résolution de problèmes d’un logicien humain. Cette approche s’est révélée être une première étape cruciale dans la démonstration que les ordinateurs pourraient non seulement calculer des nombres mais également engager des formes de raisonnement déductif.
Pour comprendre le Logic Theorist, il est impératif de l’examiner à travers plusieurs de ses dimensions fondamentales: sa structure, son fonctionnement, ses algorithmes sous-jacents, et son impact sur le domaine du raisonnement artificiel.
La structure du Logic Theorist était basée sur une architecture logicielle innovante qui permettait la manipulation symbolique des expressions logiques. Le programme était conçu pour opérer sur un ensemble de règles formelles et de symboles, simulant ainsi le processus de déduction mathématique. Ces symboles représentaient des éléments de logique propositionnelle, tels que les variables, les connecteurs logiques (et, ou, non, implique), et les quantificateurs. L’opération fondamentale du Logic Theorist reposait sur le principe de recherche dans un espace de problèmes. Il explorait systématiquement les possibilités de preuves mathématiques en générant des étapes déductives successives à partir des axiomes et règles de transformation disponibles. Ce processus était analogue à un arbre de décision où chaque nœud correspondait à une étape dans la preuve et chaque branche représentait une dérivation logique potentielle.
Au cœur du système, l’algorithme utilisé était une méthode de recherche heuristique. Le Logic Theorist ne se contentait pas de suivre aveuglément toutes les branches de l’arbre de preuve; il employait des heuristiques pour évaluer et sélectionner les chemins les plus prometteurs à suivre. Ces heuristiques étaient basées sur les stratégies que les logiciens humains pourraient utiliser pour résoudre des problèmes similaires. Par exemple, il pourrait privilégier une règle qui simplifie l’expression ou qui réduit le nombre de symboles non résolus, reflétant ainsi une approche plus « intelligente » à la résolution de problèmes.
L’une des caractéristiques remarquables du Logic Theorist était sa capacité à créer de nouvelles règles de preuve lors de l’exécution. Si le système rencontrait une impasse avec les règles existantes, il pouvait formuler de nouvelles règles qui étaient ensuite validées et intégrées dans le répertoire existant pour une utilisation future. Cette capacité d’apprentissage auto-amélioratif était révolutionnaire pour l’époque et préfigurait les systèmes d’apprentissage machine modernes.
En termes de performances, le Logic Theorist a démontré sa puissance en résolvant des problèmes difficiles de logique symbolique. L’un de ses exploits les plus notables fut la redécouverte indépendante d’une preuve du théorème de logique de Principia Mathematica de Whitehead et Russell. Même plus impressionnant était le fait que, pour un certain théorème, le Logic Theorist a proposé une preuve plus élégante et plus concise que celle originellement proposée par les auteurs ! Le Logic Theorist était aussi significatif pour son impact culturel et académique; il a joué un rôle dans la convaincre la communauté scientifique de l’époque que les ordinateurs pouvaient non seulement traiter des nombres mais également exécuter des tâches intellectuelles complexes. Il a posé les bases de la programmation logique et de la démonstration automatique de théorèmes, qui sont devenues des domaines de recherche substantiels en IA.
Un autre système pionnier était le General Problem Solver (GPS), également développé par Newell et Simon peu après le Logic Theorist. Le GPS était un programme conçu pour imiter le raisonnement humain dans la résolution de problèmes généraux et il a été l’un des premiers à utiliser ce qui est maintenant connu sous le nom de « règles de production » comme base de la connaissance. Les règles de production sont des conditionnels du type « si-alors » qui servent à guider le processus de prise de décision du système. Le GPS a marqué un tournant important en démontrant la polyvalence potentielle des systèmes basés sur des connaissances.
Dans les années qui ont suivi, les chercheurs ont continué à développer des systèmes qui pouvaient traiter des connaissances dans des domaines plus spécialisés. Le second véritable système expert, DENDRAL, a été conçu dans les années 1960 par Edward Feigenbaum, Bruce Buchanan et Joshua Lederberg. DENDRAL était un programme destiné à la chimie organique et avait pour but d’identifier la structure moléculaire des composés organiques à partir de leurs spectres de masse. Ce fut un grand succès, non seulement en prouvant le concept de l’application des systèmes experts dans des domaines spécifiques de connaissance, mais aussi en démontrant l’utilité commerciale et scientifique de l’IA.
Le succès de DENDRAL a conduit à la création d’autres systèmes experts, comme MYCIN dans les années 1970, qui était conçu pour diagnostiquer des maladies bactériennes et recommander des traitements basés sur des connaissances médicales complexes. MYCIN utilisait un ensemble de règles pour interpréter les données des patients et faisait des recommandations avec une précision qui était souvent comparable à celle des experts humains. Bien que MYCIN lui-même n’ait jamais été utilisé dans la pratique clinique en raison de problèmes réglementaires et de fiabilité, il a eu un impact énorme sur la recherche en IA et a inspiré de nombreux autres systèmes dans divers domaines.
Les systèmes experts des années 1950 et 1960 ont posé les fondements de ce que nous reconnaissons aujourd’hui comme l’intelligence artificielle. Ils ont illustré le potentiel des machines non seulement pour mimer des processus de pensée humains dans des domaines très structurés, mais aussi pour apprendre, adapter et appliquer des connaissances de manière qui était auparavant inimaginable. Ils ont démontré que l’ordinateur pouvait devenir un outil pour étendre, plutôt que simplement remplacer, les capacités humaines. La progression des systèmes experts a également souligné l’importance des connaissances de domaine spécifique dans la création de systèmes IA efficaces. Plutôt que de viser à créer une intelligence générale, les systèmes experts ont montré que la profondeur et la qualité de la base de connaissances étaient cruciales pour la performance du système dans des tâches spécifiques. Cela a conduit à une reconnaissance accrue de l’importance de l’interaction entre les experts en informatique et les experts de domaine dans le développement des systèmes d’IA.