Le cerveau humain est un chef-d’œuvre d’une complexité remarquable. Il se compose d’une myriade de neurones, environ 86 milliards, tous interconnectés par des trillions de synapses. Ces neurones se regroupent pour former des réseaux complexes qui orchestrent le traitement et l’interprétation de l’information. Le cerveau se divise en régions spécialisées chacune ayant des fonctions distinctes : le cortex cérébral qui est responsable de la pensée, de la perception et de l’action ; le système limbique régulant les émotions et la mémoire ; et le tronc cérébral avec le cervelet qui contrôlent les fonctions vitales et les mouvements. La transmission d’impulsions électriques entre neurones, modulée par divers neurotransmetteurs, est le fondement du fonctionnement du cerveau.
Cette machine biologique remarquable et supérieurement complexe engendre une série de processus cognitifs qui, ensemble, représentent ce que nous appelons « l’intelligence ». L’apprentissage, qui est la capacité d’acquérir et de retenir de nouvelles informations et compétences, s’inscrit au cœur de ces processus. Il dépend de la plasticité synaptique, c’est-à-dire de la faculté des connexions entre neurones à se renforcer ou à s’affaiblir en fonction de l’expérience. La mémoire, qui est le processus de stockage et de rappel des informations apprises, est intrinsèquement liée à l’apprentissage. La perception quant à elle regroupe les processus d’interprétation des informations sensorielles pour appréhender notre environnement. Les émotions, réponses affectives à diverses situations ou pensées, guident nos comportements et sont indispensables à notre survie. Enfin, la conscience, bien que toujours mystérieuse, est souvent associée à notre capacité de réflexion et d’introspection, permettant une prise de conscience de soi et de son environnement.
L’intelligence humaine est un concept complexe qui a été défini et évalué de différentes manières. Elle a souvent été associée à des compétences comme le raisonnement logique, la résolution de problèmes et la capacité à apprendre, des compétences généralement mesurées par les tests de quotient intellectuel (QI). Cependant, ces tests ont fait l’objet de nombreuses critiques quant à leur vision restrictive de l’intelligence. Des théories plus récentes ont suggéré que l’intelligence englobe un spectre beaucoup plus large de compétences. La théorie des intelligences multiples de Howard Gardner, par exemple, postule que l’intelligence humaine se décompose en huit domaines distincts, y compris l’intelligence musicale, kinesthésique ou interpersonnelle. Ces perspectives plus nuancées de l’intelligence humaine reconnaissent sa diversité et sa complexité.
L’intelligence synthétique, ou intelligence artificielle (IA), renvoie à une branche de l’informatique qui vise à créer des machines capables de simuler des aspects de l’intelligence humaine. L’objectif de l’IA est d’élaborer des systèmes qui peuvent effectuer des tâches généralement requérant une intervention humaine, allant de la reconnaissance vocale à la prise de décisions complexes. L’IA a émergé en tant que domaine académique dans les années 1950, lors d’une conférence à Dartmouth College, où les pionniers de l’IA ont postulé que « toute caractéristique de l’apprentissage ou toute autre caractéristique de l’intelligence peut, en principe, être décrite si précisément qu’une machine peut être faite pour la simuler ».
Au fil des décennies, diverses approches ont été adoptées dans le domaine de l’IA. Les premières tentatives de création d’IA étaient basées sur une approche symbolique, où la connaissance était codée sous forme de symboles et de règles que l’ordinateur manipulait pour raisonner. Cependant, cette approche a montré ses limites, notamment en termes de gestion des incertitudes et de l’apprentissage à partir des données. Au tournant du 21e siècle, une nouvelle approche a gagné en popularité : l’apprentissage profond. Inspirée du fonctionnement du cerveau humain, cette approche s’appuie sur des réseaux neuronaux artificiels pour apprendre à partir de grands volumes de données. Ces réseaux neuronaux artificiels sont inspirés des neurones biologiques mais leur fonctionnement diffère à plusieurs égards. Un réseau neuronal artificiel est composé de nœuds ou « neurones » disposés en couches successives, qui traitent l’information de manière parallèle et distribuée. Chaque neurone reçoit une somme pondérée de ses entrées, la transforme à l’aide d’une fonction d’activation non linéaire, puis transmet cette sortie aux neurones suivants. Les poids de ces connexions sont ajustés au cours de l’apprentissage pour minimiser l’erreur entre la sortie du réseau et la sortie attendue. Cependant, malgré ces similarités de surface, les réseaux neuronaux artificiels diffèrent grandement des neurones biologiques. D’une part, ils sont bien plus simples : ils n’ont ni la complexité morphologique des neurones biologiques, ni leur richesse en termes de types de neurotransmetteurs et de mécanismes de plasticité. D’autre part, les architectures des réseaux neuronaux artificiels sont souvent beaucoup plus ordonnées et moins diversifiées que les circuits cérébraux. En outre, contrairement au cerveau qui apprend et fonctionne tout au long de la vie, les réseaux neuronaux artificiels sont généralement formés une seule fois, puis utilisés sans modification ultérieure.
Alors que nous plongeons plus profondément dans la complexité de l’intelligence synthétique et humaine, il devient nécessaire de les comparer, d’analyser les similitudes et les différences dans leurs mécanismes d’apprentissage, leurs capacités de résolution de problèmes, de créativité et de contempler les limites actuelles de l’IA par rapport à l’intelligence humaine.
D’une part, les processus d’apprentissage dans l’IA et le cerveau humain présentent certaines analogies. À l’instar du cerveau qui modifie la force des connexions synaptiques en réponse à l’expérience (plasticité synaptique), les réseaux neuronaux artificiels ajustent les poids de leurs connexions lors de l’apprentissage. Cependant, il existe de nombreuses différences. Par exemple, l’IA utilise généralement une grande quantité de données et une fonction d’erreur précise pour guider son apprentissage, tandis que l’humain apprend de manière beaucoup plus efficace, à partir de peu d’exemples et sans objectif clairement défini.
En termes de résolution de problèmes et de créativité, l’IA a fait des progrès remarquables. Les systèmes d’IA peuvent maintenant surpasser les humains dans de nombreux domaines spécifiques, comme les jeux de stratégie ou la reconnaissance d’images. Ils peuvent même générer des œuvres d’art ou de musique qui semblent créatives. Toutefois, cette « créativité » est en grande partie le produit de l’application de modèles appris à partir de données, et non le résultat d’un processus intrinsèquement créatif. L’IA a du mal à sortir des sentiers battus, à faire des connexions inattendues et à innover de manière véritablement originale.
Les limites actuelles de l’IA par rapport à l’intelligence humaine sont nombreuses. L’IA est souvent « étroite », c’est-à-dire qu’elle excelle dans une tâche spécifique mais échoue en dehors de ce cadre. Elle manque de sens commun et de compréhension profonde du monde. Elle n’a pas de conscience ni d’émotions. Elle ne peut pas comprendre le contexte de la même manière que le font les humains, et elle a du mal à transférer ce qu’elle a appris dans un domaine à un autre.
Cependant, les possibilités futures sont passionnantes. Les chercheurs s’efforcent de rendre l’IA plus « humaine », en développant des méthodes d’apprentissage plus efficaces et plus biologiquement plausibles, en intégrant une meilleure compréhension du contexte et du sens commun, et en explorant des architectures de réseau neuronal plus sophistiquées. Il est important de noter que l’objectif n’est pas nécessairement de copier le cerveau humain mais plutôt de s’en inspirer pour créer des systèmes capables de résoudre des problèmes complexes de manière intelligente et flexible. La route est encore longue et la promesse d’une IA plus « humaine » est à la fois fascinante et provocatrice.
Dès lors que nous nous tournons vers la question de l’éthique et des implications sociétales, une série de défis se pose. Les intelligences synthétiques, malgré leur capacité à exécuter des tâches et à résoudre des problèmes de manière autonome, n’ont pas la même responsabilité que les êtres humains. Ainsi se pose la question des droits et des responsabilités des intelligences synthétiques. Cela peut sembler absurde de prime abord, car l’IA, telle que nous la connaissons aujourd’hui, n’est pas consciente et n’a pas de désirs ou de sentiments. Cependant, si nous continuons à développer des systèmes de plus en plus avancés et autonomes, nous devrons déterminer qui est responsable lorsque quelque chose tourne mal. Ensuite, les conséquences sur l’emploi, l’éducation et la société sont profondes. À mesure que l’IA devient plus compétente, de nombreux emplois pourraient être automatisés, entraînant une réduction potentielle de la demande de main-d’œuvre humaine dans certains secteurs. Cela pourrait nécessiter des changements majeurs dans notre système éducatif pour préparer les travailleurs à des rôles plus complexes et créatifs qui sont moins susceptibles d’être automatisés. Plus largement, l’IA a le potentiel de transformer la société de manière fondamentale en changeant la façon dont nous communiquons, travaillons et vivons. Ces transformations nécessiteront une attention et une gestion prudentes pour garantir une transition juste et équitable.
Notons pour terminer ce propos qu’ il y a des questions éthiques et morales profondes liées à la « copie » des mécanismes cérébraux humains. Tout d’abord, soulignons l’intimité et la confidentialité : est-il éthique de créer des machines qui peuvent simuler, et donc potentiellement comprendre, les processus de pensée humains de manière aussi intime ? Deuxièmement, on doit s’ interroger au sujet de l’identité et de l’authenticité : qu’est-ce que cela signifie d’être humain si nos processus de pensée peuvent être imités par des machines ? Enfin, se pose la question du respect de la dignité humaine : est-il éthique de créer des machines qui peuvent souffrir, ressentir de la douleur ou avoir des désirs ? Ces questions sont complexes et nécessitent un examen approfondi par les philosophes, les théologiens, les scientifiques et la société dans son ensemble.
Voici quelques références bibliographiques qui pourraient vous intéresser relativement à ce sujet passionnant :
Russell, S., & Norvig, P. (2016). Artificial Intelligence: A Modern Approach. Pearson.
LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436-444.
Damasio, A. (2005). Descartes’ Error: Emotion, Reason, and the Human Brain. Penguin.
Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
Searle, J. (1980). Minds, Brains and Programs. Behavioral and Brain Sciences, 3(3), 417-457.
Turing, A. M. (1950). Computing Machinery and Intelligence. Mind, LIX(236), 433-460.
Dreyfus, H. L. (1972). What Computers Can’t Do: The Limits of Artificial Intelligence. Harper & Row.
Hassabis, D., Kumaran, D., Summerfield, C., & Botvinick, M. (2017). Neuroscience-Inspired Artificial Intelligence. Neuron, 95(2), 245-258.
Hawking, S., & Mlodinow, L. (2010). The Grand Design. Bantam Books.
Bostrom, N., & Yudkowsky, E. (2014). The Ethics of Artificial Intelligence. In K. Frankish & W. M. Ramsey (Eds.), The Cambridge Handbook of Artificial Intelligence (pp. 316-334). Cambridge University Press.