Réglementation européenne sur l’Intelligence artificielle : où allons-nous ?
Un accord en vue d’une réglementation européenne sur l’Intelligence artificielle a été trouvé le 8 décembre entre les Etats membres et le Parlement européen. Salué comme une première mondiale, cet accord a pour but de finaliser un texte au niveau européen qui entrerait en vigueur au plus tôt en 2025. Le travail de préparation a débuté en 2021, avant que Chat GPT et d’autres applications grand public ne viennent révéler l’impact au quotidien que ces technologies portent en elles.
Que comporte cette future réglementation ?
La réglementation comportera une définition des systèmes relevant de l’IA. Selon le parlement européen, “la priorité est de veiller à ce que les systèmes d’IA utilisés dans l’UE soient sûrs, transparents, traçables, non discriminatoires et respectueux de l’environnement. Les systèmes d’IA devraient être supervisés par des personnes plutôt que par l’automatisation, afin d’éviter des résultats néfastes“. La réglementation vise aussi à une définition uniforme sur le plan technologique qui puisse s’appliquer à de futures innovations.
Le principe guidant la future loi porte sur l’évaluation systématique des risques imposant des règles différentes par niveau de risque.
Sont considérés comme des risques inacceptables les systèmes d’IA tels que la reconnaissance biométrique de masse, la notation sociale (pratiquée en Chine), la manipulation des comportements… Des exceptions sont cependant déjà prévues, par exemple pour les forces de l’ordre dans le cadre de la lutte contre le terrorisme, la recherche de victimes de traite humaine…
Le projet mentionne une interdiction pour “les systèmes d’IA qui manipulent le comportement humain pour contourner le libre arbitre“. La notion de libre arbitre est très ancienne et a donné lieu à de nombreuses discussions philosophiques, sans aboutir à un accord sur son sens. Certaines critiques n’ont pas manqué de pointer la difficulté d’y recourir pour une réglementation qui entend fixer des règles et protéger le grand public.
Les systèmes “à risque élevé” sont ceux qui “ont un impact négatif sur la sécurité ou les droits fondamentaux“. Ils seront soumis à évaluation avant la mise sur le marché et tout au long de leur cycle de vie, des versions plus puissantes d’un système pouvant impacter le niveau de risque.
Concrètement, une annexe du projet de loi cite comme exemple un système utilisé “pour évaluer les étudiants des établissements d’enseignement et de formation professionnelle et pour évaluer les participants aux épreuves couramment requises pour intégrer les établissements d’enseignement“, ou encore une IA “destinée à être utilisée pour la prise de décisions de promotion et de licenciement dans le cadre de relations professionnelles contractuelles“. Sont visés aussi “les systèmes d’IA destinés à être utilisés pour envoyer ou établir des priorités dans l’envoi des services d’intervention d’urgence, y compris par les pompiers et les secours“.
S’agissant d’IA plus généraliste incluant les systèmes génératifs comme ChatGPT, le projet prévoit des obligations de “transparence”. Le modèle doit être conçu pour ne pas générer du contenu illégal, il doit respecter les droits d’auteurs et les sons, images, textes doivent mentionner leur origine artificielle.
Des systèmes à risque faible (par exemple des “tchats” mis à disposition de clients) doivent mentionner à leurs utilisateurs qu’ils interagissent avec de l’IA.
Un bouleversement technologique qui soulève des questions concrètes
Les possibles applications de l’IA touchent tous les domaines : santé, justice, éducation, armée…
Les questions à poser, et à se poser en tant qu’utilisateur, sont nombreuses. Qui décide ? Sur quels critères et quelles méthodes ? Qui a accès aux données et sont-elles suffisamment sécurisées ? Comment ces données sont-elles utilisées et dans quel but? Un système d’IA s’appuie-t-il sur une chaîne de responsabilité humaine que l’on peut interpeller ?
Un récent exemple paru dans la revue Nature illustre les bouleversements possibles de l’IA dans la vie quotidienne. Un laboratoire de mathématiques appliquées au Danemark a utilisé une énorme base de données existantes sur l’ensemble de la population danoise pour estimer, entre autres, des probabilités de mort précoce. Les informations comprennent les événements de la vie liés à la santé, à l’éducation, à la profession, au revenu, à l’adresse et aux heures de travail, enregistrées avec une fréquence quotidienne.
En partant de l’hypothèse que les événements partagent des similitudes avec le langage, et en utilisant une technique d’IA semblable au modèle de ChatGPT, l’outil a pu “prédire” la mort précoce (entre 35 et 65 ans) avec une efficacité supérieure aux modèles existants. L’intérêt d’un tel système pour des compagnies d’assurance ou des mutuelles est évident et remettrait en question l’idée de base de la mutualisation des risques entre les individus. Dans un horizon indéterminé, ce type d’utilisation pourrait pousser alors à davantage de sélection anténatale pour des raisons de coûts d’assurances.
Un compromis instable ?
Le compromis trouvé par le Parlement européen et les Etats membres est le fruit de discussions entre de multiples acteurs et des intérêts économiques et politiques divergents. Pour la France, des voix diverses se sont fait entendre, soit pour demander plus d’interdiction (par exemple contre des systèmes de reconnaissance faciale dans l’espace public) soit plus de souplesse. Le projet prévoit une approche dite “bac à sable règlementaire » déjà utilisée dans ce domaine. Il s’agit de définir un cadre dans lequel des entreprises peuvent tester des innovations sans beaucoup de contraintes.
Les enjeux sont énormes et le marché est actuellement dominé par des acteurs américains et chinois. L’approche européenne se démarque par une volonté de réglementation, quand d’autres pays se contentent de codes de conduite volontaires, inspirés de principes généraux tels que ceux proposés par l’OCDE.
Aux Etats Unis, l’encadrement se fait par un ordre exécutif présidentiel, signé récemment. Il est donc plus facilement adaptable en fonction de l’évolution des systèmes et des demandes des acteurs de la technologie. Il est probable que la pression pour demander “plus de souplesse”, ou l’abandon de règles “trop strictes”, augmentent dans les années à venir.
Beaucoup d’acteurs soulignent la vitesse à laquelle les innovations en IA se développent et se déploient. Ce thème était souligné par un expert, Philippe Dewost, dans son intervention à l’Université de la vie 2023. Travailler à un consensus robuste pour mettre l’humain au centre, en IA comme en bioéthique, est une urgence.