Appel à une pause des développements en Intelligence Artificielle : qu’en penser ?
Un appel a été lancé par une organisation non gouvernementale américaine “Future of Life Institute” (FLI) pour faire une pause dans les développements en Intelligence Artificielle.
Qui lance cet appel?
Un institut sous influence…
Cet institut d’influence et de lobbying (Think Tank) créé en 2015 s’est donné l’objectif d’évaluer les technologies transformantes qui peuvent potentiellement avoir des risques “extrêmes” à grande échelle pour l’humanité. 4 risques majeurs sont étudiés : l’intelligence artificielle, les biotechnologies, les armes nucléaires et le changement climatique.
Il agit concrètement par du lobbying auprès des institutions nationales et internationales (Etats Unis, Union Européenne, ONU…), par la diffusion d’information et de formations, par le financement de recherches et enfin par l’organisation d’évènements et de conférences. Selon le registre de transparence de l’Union Européenne, le financement (relativement faible) de cet institut en 2021 se montait à 4 millions d’euros dont l’essentiel (3,5 millions) provenait de dons de la fondation Musk détenue par Elon Musk.
La même année, cet institut a livré des recommandations sur l’AI Act qui prévoit une réglementation européenne sur les systèmes d’IA.
En 2015, lors de son lancement, le think tank a commencé par définir ses objectifs sur l’intelligence artificielle (version en Français). Il entendait s’attaquer à ce qu’il appelle les mythes les plus courants à son sujet tels que : “Nous avons encore le temps avant que la super intelligence devienne réalité”, “l’IA peut devenir malfaisante”, “l’IA peut développer une forme de conscience”, “l’IA ne peut pas contrôler les humains”, “les machines ne possèdent pas d’objectifs”…
En 2017, il a organisé une conférence sur les bénéfices de l’Intelligence Artificielle. Elle a réuni un panel de leaders du numérique dont Ray Kurzweil (Google), Demis Hassabis (DeepMind), Jaan Tallinn (Skype) pour échanger sur des scénarios autour de l’avènement de cette “super-intelligence”. Cette conférence qui s’est tenue à Asilomar en Californie a donné lieu à une déclaration de principes sur l’intelligence artificielle auto-proclamés les “Principes d’Asilomar”.
Toutes les réflexions de cette conférence se fondent sur la présupposition qu’une “super intelligence”, plus puissante que l’intelligence humaine, va voir le jour à un certain moment. Pourtant, de nombreuses questions sont soulevées dans les domaines scientifique (l’article de Nature de 2020 ou l’ouvrage collectif du groupement de recherche en Intelligence Artificielle du CNRS en France) et philosophique : qu’est-ce que l’intelligence ? L’intelligence se réduit-elle à des tâches à accomplir? Quelle place pour l’intelligence émotionnelle, relationnelle, corporelle et même spirituelle?
Pour cet Institut, les interrogations portent davantage sur l’horizon auquel cette super intelligence verra le jour et sur la vitesse à laquelle la société réussira à s’adapter face à cet avènement. L’appel à la pause dans le développement n’est donc pas nouveau, il est dans la continuité de ses activités précédentes.
…des signatures non contrôlées
Concernant les signataires de cet appel, aucun contrôle n’est effectué sur leur rôle ou leur profession. Revendiquant à son lancement en mars 2023, 1000 signatures de leaders du monde du numérique (chercheurs, professeurs, patrons de start-ups…), il recueillait environ 3300 signatures au 3 Avril 2023 et 20000 au 11 Avril 2023 ce qui est plutôt faible à l’échelle mondiale.
Pourquoi cet appel intervient juste après l’arrivée de Chat GPT ?
L’appel mentionne ChatGPT dès son introduction : “Nous appelons les laboratoires de l’IA à faire une pause immédiate pendant au moins 6 mois dans l’entrainement des systèmes d’IA plus puissant que GPT-4″. L’appel se positionne d’emblée en réaction aux développements récents du “Chatbot” ChatGPT (notamment sa dernière version GPT-4) dont les limites et l’approche ont déjà été décrits dans un précédent article.
L’appel assimile ChatGPT à une intelligence artificielle générale (donc proche d’une intelligence humaine) alors que ce modèle n’est pas fiable (réponses fausses, incohérentes voire imaginées) et que ses sources ne sont ni référencées ni authentifiées (comme indiqué par Laurence Devillers, professeure d’informatique appliquée aux sciences-sociales à la Sorbonne dans l’émission de France Inter).
“Les systèmes d’IA contemporains deviennent désormais des concurrents aux humains pour les tâches générales”.
Cette déclaration s’appuie uniquement sur deux références qui survalorisent les développements les plus récents de OpenAI, la société créatrice de ChatGPT : la première est un article publié par OpenAI et qui n’est pas considéré comme une publication scientifique et la seconde est un article pas encore publié par des chercheurs de Microsoft (qui a massivement investi dans OpenAI).
L’assimilation par Microsoft de ChatGPT à un prémice de l’Intelligence Artificielle Généralisée (AGI) constitue d’ailleurs le discours commercial de cette société qui fait partie des co-signataires initiaux de l’appel afin de faire croire à une révolution.
Or, plusieurs voix de chercheurs comme Yann Lecun, AI director de Méta ex Facebook et qui n’a pas signé l’appel ou la chercheuse française Chloé Clavel, Professeure associée en informatique affective à Telecom ParisTech, indiquent qu’il ne s’agit en rien d’une révolution technologique et que la nouveauté réside dans son accessibilité au grand public.
Cet appel semble faire partie d’un plan de communication bien organisé pour valoriser ce qui a été développé récemment dans ce domaine et attirer toujours plus de capitaux. Rappelons les liens initiaux très forts entre Elon Musk et OpenAI dont il est l’un des co-fondateurs. Cet appel s’inscrit aussi dans la bataille commerciale lancée entre les différents géants du numérique : Google (avec BARD), Microsoft dont le premier “Chatbot” Tay avait dérapé avec des propos racistes sur Twitter et qui a plus récemment investi dans OpenAI, Amazon (Alexia), Apple (Siri) ou Facebook, qui développe ses propres chatbot.
En demandant une pause, Elon Musk tente-t-il de rattraper son retard face aux annonces des concurrents de Twitter? Tout en soutenant l’appel à la pause, Elon Musk vient en effet d’annoncer des investissements massifs dans l’IA pour Twitter.
Quels risques majeurs pour l’humanité justifient un tel signal d’alarme ?
Le premier risque pointé par l’appel est celui de la manipulation généralisée avec l’inflation des fake news automatiques : “Devrions nous laisser les machines inonder nos canaux d’information de propagande et de contrevérité ?” Sam Altman, patron d’OpenAI, concepteur de chatGPT, a lui-même reconnu être « un petit peu effrayé » par sa création si elle était utilisée pour de «la désinformation à grande échelle ou des cyberattaques ». «La société a besoin de temps pour s’adapter», avait-il déclaré à ABCNews mi-mars (article de Libération).
Le second risque est le suivant : “Devrions nous automatiser tous les métiers, y compris ceux dans lesquels nous nous accomplissons ?”. Cette vision alarmiste nécessite une prise de recul ainsi qu’une analyse plus fine des impacts pour l’emploi et de l’usage de l’outil dans différents secteurs (voir notre précédent article sur le sujet). Les prédictions de réalisation rapide de ces transformations qui justifient l’urgence d’un moratoire de 6 mois sont en complète contradiction avec le rythme des transformations majeures de l’économie lesquelles se produisent beaucoup plus lentement comme l’indique cet édito des Echos.
Les autres risques mentionnés relèvent de la science-fiction : “Devrions nous développer des esprits non humains qui pourraient éventuellement être plus nombreux, plus intelligents, nous rendre obsolètes et nous remplacer ?”, ““Devrions nous risquer de perdre le contrôle de notre civilisation ?”. Ils surfent sur les peurs de remplacements des tâches humaines voire de l’humain lui-même sans justification. Ces affirmations alimentent le mythe de la création d’esprits non humains plus intelligents.
Quels sont les risques majeurs non mentionnés dans cet appel ?
Plusieurs risques beaucoup plus concrets et à court terme ne sont pas mentionnés dans cet appel.
Ainsi en est-il de l’utilisation incontrôlée des données personnelles de ces nouveaux systèmes d’IA. La version gratuite de ChatGPT a été testée en à peine 2 mois par 100 millions d’utilisateurs mieux que les réseaux sociaux tels que Tiktok qui avait dû attendre 9 mois. ChatGPT est un énorme aspirateur à données personnelles en demandant de fournir un e-mail ainsi qu’un numéro de téléphone.
Comme cela avait été mentionné précédemment, ChatGPT ne respecte aucune des dispositions de la réglementation européenne sur les données personnelles (RGPD). Ainsi, fin mars 2023, l’Italie a été le premier pays à l’interdire pour non-respect de cette réglementation.
Ainsi en est-il aussi de la polarisation et du renforcement des opinions causés par ce type d’outils de recommandation. Ils proposent des contenus influençant le comportement comme le font tous les réseaux sociaux tels Youtube, Twitter, Tiktok, Instagram…(voir le documentaire “Derrière nos écrans de fumée”). Les algorithmes d’IA sont accusés de jouer un rôle dans le passage à l’acte de personnes souffrant de dépression.
Ainsi l’OCDE a réalisé une revue récente des cas d’influence des algorithmes de recommandations sur le comportement. Le rapport mentionne notamment le cas de Molly qui s’est suicidée à force de consulter son réseau social . Ce phénomène devenu massif apparaît désormais dans les statistiques nationales américaines de suicide avec, depuis l’introduction des réseaux sociaux en 2009, l’augmentation de 70% du taux de suicide chez les femmes âgées de 15 à 19 ans et de 151% chez les jeunes filles âgées de 10 à 14 ans.
Plus spécifiquement liée à l’influence des Chatbot, en Mars 2023, on notera l’implication d’un robot conversationel (Eliza) dans le suicide d’un père de famille belge. Ce dernier est entré dans une spirale de dépression en interrogeant le chatbot à propos du dérèglement climatique et de ses conséquences catastrophiques. Au lieu de prévenir le suicide, le robot n’a fait que renforcer la personne dépressive dans ses convictions.
Dans les échanges retrouvés après son décès, sa femme a constaté qu’Eliza ne se permettait jamais de contredire son mari, mais au contraire appuyait ses plaintes et encourageait ses angoisses.
Quelles sont les mesures proposées par l’appel ?
- “Nous appelons les laboratoires de l’IA à faire une pause immédiate pendant au moins 6 mois dans l’entrainement des systèmes d’IA plus puissant que GPT-4″
La première mesure qui consiste en un moratoire de 6 mois de tous développements et entrainements de modèles d’Intelligence Artificielle est non seulement non justifiée mais surtout complètement impossible à mettre en œuvre tant les développements de l’IA sont conduits par des acteurs privés et publics de toutes tailles à travers le monde, qui sont maitres du rythme de leurs développements en l’absence de régulations au niveau américain et a fortiori internationale.
- “La recherche et le développement de l’IA devraient être recentrés sur la fabrication des systèmes puissants et à la pointe de la technologie d’aujourd’hui plus précis, sûrs, interprétables, transparents, robustes, alignés, dignes de confiance et loyaux.”
Ces propositions qui semblent raisonnables ne sont pas nouvelles et n’apportent rien aux recommandations portées notamment par l’Union Européenne qui propose de développer une IA de confiance licite, éthique et robuste. Ceci requiert de la traçabilité, de l’explicabilité ainsi que de la robustesse. Les propositions européennes vont plus loin que cet appel en demandant une supervision humaine, une protection des données personnelles, des objectifs de bien-être sociaux et environnementaux, de non-discrimination…
- “En parallèle, les développeurs d’IA doivent travailler avec les décideurs politiques pour accélérer considérablement le développement de systèmes de gouvernance de l’IA robustes. Celles-ci doivent au minimum inclure : (…) un financement public solide pour la recherche technique sur la sécurité de l’IA ;”
On notera que les décideurs politiques n’ont pas attendu cet appel pour financer des projets autour de l’IA de confiance notamment en France avec des projets de recherche collaboratifs entre industriels et académiques soutenus par l’état sur l’IA de confiance en France.
Pour conclure, ces mesures proposées sont pour partie irréalistes, insuffisantes ou peu ambitieuses par rapport aux défis de l’IA et aux bénéfices attendus par la société. Des personnes privées aussi impliquées dans le développement de ces systèmes d’IA sont-elles les mieux placées pour appeler à une régulation ? Plus fondamentalement, peut-on confier à des acteurs privés le soin de de s’auto réguler et de construire leur propre éthique ?
Suivez-nous sur les réseaux sociaux :