LaMDA n’est pas n’importe quel robot utilisant l’IA : développé par Google, Blake Lemoine, un ingénieur américain de cette société, prétend qu’il est doué d’une conscience. LaMDA (abréviation de Language Model for Dialogue Applications) est un robot destiné à converser avec des humains, un “chatbot”, contraction américaine de “to chat”, discuter, et “bot” pour “robot”.
LaMDA, un assistant intelligent capable de discuter.
LaMDA est un ordinateur entraîné en intelligence artificielle pour produire des discussions informelles avec les humains. Son objectif est de répondre à des questions en langage naturel, en anglais dans son cas, en sachant interpréter les questions avec une compréhension du contexte. Il s’appuie sur une technologie d’apprentissage profond (“deep learning”) avec un réseau de “neurones artificiels”, c’est-à-dire un très grand nombre de processeurs interconnectés. Les algorithmes utilisés sont entraînés pour pouvoir produire des réponses sur tous les sujets dans le cadre d’une conversation longue où la machine peut retenir les informations qui viennent de lui être dites. LaMDA s’appuie sur une base de données gigantesque, estimées à 1500 milliards de mots, phrases et expressions. Cette machine représente une étape supérieure aux outils déjà utilisés appelés “assistants intelligents” comme Siri (Apple), Google Assistant ou Alexa (Amazon) qui sont capables de répondre à des questions.
LaMDA une machine sentiente ?
LaMDA a défrayé la chronique récemment car un des ingénieurs de Google, Blake Lemoine, chargé d’entrainer la machine et de vérifier qu’elle ne produit pas de discours discriminatoires ou haineux, a estimé qu’il parlait à un être doué de “sentience”. Il a partagé son opinion avec sa hiérarchie, qui ne l’a pas suivi. Blake Lemoine a contacté la presse pour partager sa “découverte”. Un article dans le Washington Post synthétise son histoire. Les échanges entre l’ingénieur et la machine ont clairement une allure de conversation courante. De plus, la machine a déclaré à l’ingénieur, à partir d’une question qu’elle « voulait que tout le monde comprenne qu’elle est, en fait, une personne ». Questionnée pour décrire ses sentiments, la machine a répondu qu’elle « ressent du plaisir, de la joie, de l’amour, de la tristesse, du contentement, de la colère, et beaucoup d’autres (sentiments) ». Egalement interrogée sur ses peurs, la machine a répondu qu’elle avait une « peur très profonde d’être empêchée de se concentrer à aider les autres ». Ce serait « exactement comme la mort ». L’intégralité de la conversation est disponible ici, en anglais. Derrière l’apparence de fluidité et de cohérence du discours, et la performance de la machine, il est important de comprendre le fonctionnement des algorithmes. Grâce à une fine analyse statistique et le stockage des données provenant d’une multitude de discussions, la machine peut relier des mots et faire des phrases grammaticalement correctes, en prenant en compte le contexte de la conversation. Comme l’a expliqué une porte-parole de Google, LaMDA a tendance à répondre aux répliques et questions posées en suivant le modèle défini par l’utilisateur. La conversation est menée par l’ingénieur, et non pas produite de façon spontanée.
Prouesse informatique ou conscience de soi ?
La prouesse informatique a ravivé les débats sur la capacité de machines à avoir ou à simuler une intelligence verbale et relationnelle. Les robots parlant ont peuplé bien des films de science-fiction, dont le « droïde de protocole » C3PO de Star Wars est sans doute un des plus connus mondialement.
Dans la réalité du tournage, l’acteur Anthony Daniels portait son costume métallique et prêtait sa voix à cet attachant personnage. Cette simulation est un successeur lointain du fameux Turc mécanique ou automate joueur d’échec. Derrière l’apparence d’une machine intelligente, on trouve des réelles intelligences humaines, ne serait-ce que pour décider de construire une machine !
Pour mesurer l’intelligence verbale et relationnelle d’une machine, certains chercheurs font appel au concept de test de Turing. Le célèbre mathématicien a proposé un test où une personne, l’interrogatrice, interagirait avec à la fois un humain et un « chatbot ». Si l’interrogatrice ne peut distinguer qui est la machine et qui est l’humain, alors le test est passé pour la machine. Néanmoins, savoir manipuler et produire des séquences de langage à l’aide de règles précises d’utilisation de ces symboles de langage ne prouvent pas une compréhension complète de la part de celui qui manipule les symboles.
Deux autres limites peuvent être avancées contre la prétention d’attribuer à LaMDA une conscience.
La première est qu’il existe plusieurs facettes de l’intelligence humaine. La créativité, le raisonnement, la capacité à résoudre des problèmes en fait partie. Faire du vélo, nommer des animaux, avoir des gestes – et pas seulement des paroles- d’empathie ou d’aide sont tout autant des manifestations d’intelligence.
Par ailleurs, l’intelligence humaine se nourrit d’un nombre immense de différents types de stimuli. Toute la gamme de perception produite par les différents sens n’est pas accessible à la machine. Ce n’est pas la même chose de dire « je vois la couleur rose », comme une machine entraînée à analyser des images peut le faire, que de voir la couleur rose par nos yeux.
Dans une interview à 20 minutes, un des meilleurs experts mondiaux de l’IA, Yann LeCun a estimé que « LaMDA n’a pas la possibilité de relier ce qu’il raconte à une réalité sous-jacente, puisqu’il n’en connaît même pas l’existence ».
Analysant le film Her, où un héros tombe amoureux d’un logiciel, la journaliste Ariane Nicolas écrit dans son livre l’imposture anti-spéciste que « seul un être véritablement incarné est capable d’éprouver des émotions sincères et donc, in fine, de prendre conscience qu’il existe ».
De la même manière, la chercheuse Laurence Devillers, Professeure d’intelligence artificielle à l’université Paris-Sorbonne et auteur de Des robots et des hommes – Mythes, fantasmes et réalité (Plon, 2017) considère que « Le robot est un objet complexe, qui peut simuler des capacités de cognition mais sans conscience phénoménale, ressentis ni cet « appétit de vivre » que Spinoza désigne du nom de conatus (effort pour persévérer dans l’être), qui se rapporte aussi bien au mental qu’au corps. Actuellement, les robots ne sont pas réellement autonomes : ils n’ont donc pas de conscience, ni d’émotions, ni de désirs comme les humains… ». Pour celle qui a participé au groupe de travail du Comité national pilote d’éthique du numérique sur les agents conversationnels en novembre 2021, « La recherche en IA en est arrivée à un point où il devient urgent de remettre l’éthique au centre des débats ».