Après son Manifeste pour une éthique du numérique publié en 2021, et dans la continuité de son Avis n°3 sur les enjeux éthiques des agents conversationnels (« chatbots ») fin 2021, le Comité national pilote d’éthique du numérique (CNPEN) vient de rendre son Avis n°7 : Systèmes d’intelligence artificielle (IA) générative : enjeux d’éthique.
Quelques dates récentes marquantes concernant l’IA ces 3 dernières années
Avril 2021, un projet de réglementation de l’intelligence artificielle (IA) de la Commission européenne a été présenté par les commissaires européens à Bruxelles. Ce projet combine un « premier cadre juridique sur l’IA » et un « nouveau plan coordonné avec les États membres ». Dans son communiqué de presse, la Commission européenne annonce vouloir « garantir la sécurité et les droits fondamentaux des citoyens et des entreprises, tout en renforçant l’adoption de l’IA, les investissements et l’innovation dans l’ensemble de l’UE ».
Juin 2023, le Parlement européen a adopté sa position de négociation concernant la législation sur l’intelligence artificielle, avant les discussions avec les États membres sur la forme finale de la législation. Un projet de régulation de l’intelligence artificielle prendra forme, dont les règles viseront à promouvoir l’adoption d’une l’IA axée sur le facteur humain, et à protéger la santé, la sécurité, les droits fondamentaux et la démocratie de ses effets néfastes.
Juillet 2023, Avis n°7 du CNPEN: Systèmes d’intelligence artificielle générative.
Mis en place en 2019, le CNPEN, placé sous l’égide du Comité consultatif national d’éthique (CCNE), a pour rôle de rendre des avis sur les saisines qui lui sont confiées, d’éclairer le débat public sur les enjeux d’éthique du numérique et de rédiger des propositions relatives à la pérennisation de la réflexion nationale sur l’éthique du numérique. Les trois premières saisines demandées par le Premier ministre concernent le véhicule autonome (avis paru en mai 2021), les agents conversationnels (avis paru en novembre 2021) et le diagnostic médical et l’intelligence artificielle (à paraître prochainement).
Le déploiement de ChatGPT illustre l’accélération des capacités des systèmes d’intelligence générative. C’est sur ce thème que le CNPEN vient de rendre son Avis n°7 : Systèmes d’intelligence artificielle générative : enjeux d’éthique dans lequel il pointe :
La question de la vérité
Comme le précise l’avis, « les résultats émis par l’outil peuvent être source d’erreur et mener à la désinformation si l’utilisateur ne fait pas preuve d’esprit critique. Le système d’IA générative n’a aucune logique ni compréhension des mots qu’il emploie. Son mode d’apprentissage par corrélation numérique statistique, sans notion du sens, peut générer des erreurs ou « hallucinations » ce qui pose la question de la vérité. Or, la production d’erreurs et l’illusion de la vérité ne pouvant être attribué à la machine, c’est le concepteur du programme qui doit en assumer la responsabilité et avertir l’utilisateur des risques encourus, afin d’éviter le risque de la désinformation ».
Ainsi, pour éviter des tensions technologiques puis sociétales, le CNPEN invite les concepteurs de modèles de langage à faire preuve d’éthique dès la phase de conception et d’exigence dans la prise en compte des biais.
Distinguer l’homme et la machine
Le Comité prône un maintien des distinctions d’une production humaine des résultats issus de la machine par l’utilisation de code en filigrane. L’introduction des filigranes est une étape réglementaire nécessaire pour des raisons éthiques. Ils doivent répondre à deux critères. D’un côté, ils doivent être suffisamment robustes pour résister aux attaques adversaires visant à les effacer. De l’autre, leur détection par un logiciel de vérification ne doit pas dépendre des paramètres d’un système d’IA particulier qui aurait généré le texte.
La question de la langue
La langue utilisée pour l’apprentissage des systèmes d’IA générative n’est pas anodine. Toute langue humaine véhicule nécessairement une histoire et une culture. Le simple fait de manier le langage, qui est le moyen de la pensée consciente et du jugement, mobilise implicitement les représentations culturelles. Or, on note une forte prédominance du corpus de ressources en anglais. Ainsi, selon le CNPEN, lors de la constitution des corpus d’apprentissage des systèmes d’IA générative, les concepteurs doivent respecter la diversité des langues humaines et des cultures qu’elles véhiculent.
La question des apprentissages
Le Comité recommande de conditionner l’utilisation des systèmes d’IA générative à des études préalables de leur effet sur le développement cognitif des jeunes cerveaux. L’Avis rappelle l’enjeu sociétal de préserver l’apprentissage humain qui passe par la compréhension des concepts, la réflexion et la créativité, sans avoir recours aux machines. Le CNPEN considère que le système d’éducation ne peut et ne doit pas exclure l’IA générative, mais doit l’intégrer, en encadrer l’usage. Il s’agit d’apprendre aux enfants et étudiants les concepts sous-jacents pour augmenter leur compréhension du système et faciliter sa prise en main.
La nécessité de marquer des limites par une régulation juridique
L’avis pointe la nécessité de poser les limites via des normes juridiques suffisamment souples pour faire face aux nouvelles évolutions et suffisamment structurantes pour répondre au respect des droits fondamentaux et de l’intégrité des personnes. Pour eux, la responsabilité légale doit être attribuée aux fournisseurs des modèles de fondation et aux déployeurs d’applications. La responsabilité morale s’étend aux concepteurs des modèles de fondation et aux développeurs des systèmes d’IA générative utilisant de tels modèles.
La protection des données
Pour le CNPEN, il semble nécessaire que le Comité européen de protection des données produise des lignes directrices relatives à l’articulation entre le règlement sur l’IA et le RGPD. Quant à la question du traitement des données collectées, le CNPEN préconise l’élaboration de règles juridiques complétées d’un questionnement éthique sur la collecte, le stockage et la réutilisation des traces linguistiques des interactions entre machines et êtres humains.
L’impact écologique
Pour le CNPEN, les systèmes d’IA générative doivent se montrer plus conscients et transparents à propos de leur utilisation énergétique, de leurs émissions et des mesures prises pour atténuer ces dernières. Afin d’envisager un développement vertueux de ces technologies, le CNPEN propose la mise en place d’une métrique de l’impact environnemental des systèmes d’IA générative
La gouvernance
Le Comité préconise la création d’une entité souveraine de recherche et de formation « IA, science et société ».