Un projet de réglementation de l’intelligence artificielle (IA) a été présenté par les commissaires européens à Bruxelles le 21 avril 2021.
L’objectif avancé est de « faire de l’Europe le pôle mondial d‘une intelligence artificielle (IA) digne de confiance » ; un travail de réflexion entamé depuis quelques années.
Ce projet combine un « premier cadre juridique sur l’IA » et un « nouveau plan coordonné avec les États membres ». Dans son communiqué de presse, la Commission européenne annonce vouloir « garantir la sécurité et les droits fondamentaux des citoyens et des entreprises, tout en renforçant l’adoption de l’IA, les investissements et l’innovation dans l’ensemble de l’UE ».
Ce règlement se fonde principalement sur les risques, créant les catégories de risques inacceptables, élevés, limités et minimes, et l’explique par quelques exemples.
- Les IA classées dans « risque inacceptable » seront interdites. Elles comprennent « les systèmes d’IA considérés comme une menace évidente pour la sécurité, les moyens de subsistance et les droits des personnes ». Ce sont, par exemple, les systèmes qui permettent la notation sociale par les États ou ceux qui manipulent le comportement humain pour priver les utilisateurs de leur libre arbitre.
- Les IA classées dans « risque élevé » ou « à haut risque » devront être conformes à des obligations strictes pour pouvoir être mises sur le marché. Ce sont par exemple celles qui sont utilisées dans les transports et susceptibles de mettre en danger la vie et la santé des citoyens. Ou dans l’éducation et l’emploi (la notation d’examens, le tri des CV…). Ou encore celles utilisées dans le domaine du maintien de l’ordre, de la chirurgie assistée par robot ou l’évaluation du risque de crédit, qui prive certains citoyens de la possibilité d’obtenir un prêt. Les systèmes d’identification biométrique à distance fondés sur l’IA sont particulièrement considérés à haut risque. Leur utilisation en temps réel dans l’espace public aux fins du maintien de l’ordre est en principe interdite. Il existe des exceptions (pour rechercher un enfant disparu, ou un suspect d’une infraction pénale grave).
- Les IA à « risque limité » seront encadrées par des obligations spécifiques en matière de transparence. Ce sont par exemple les « chatbots », les utilisateurs doivent savoir qu’ils interagissent avec une machine afin de pouvoir décider en connaissance de cause de poursuivre ou non. Autre exemple, le “deep fake”, la reproduction de la voix ou l’image d’un individu pour lui faire dire ou faire ce qu’il veut, sera encadré.
- Les IA à « risque minime » seront autorisées librement (jeux vidéo, filtres anti-spam…)
Ce règlement européen prévoit aussi des amendes et des sanctions pouvant aller jusqu’à 6% du chiffre d’affaires mondial.
Sur la reconnaissance faciale, cette disposition est jugée insuffisante par des organisations de protection des consommateurs et plusieurs eurodéputés, ce qui promet un débat intense au Parlement européen.