Le Parlement européen a adopté, le 16 février 2017, un rapport élaboré par l’eurodéputée luxembourgeoise Mady Delvaux sur l’évolution des règles de droit civil concernant la robotique.
Les députés demandent à la Commission européenne d’envisager la création d’une agence européenne pour la robotique et l’intelligence artificielle, afin de fournir aux autorités publiques une expertise technique, éthique et réglementaire. Les députés préconisent, entre autres, un cadre juridique sur la responsabilité des robots. La principale innovation de ce rapport tient au fait qu’il suggère d’attribuer une « personnalité juridique spécifique » aux robots ; certains robots se verraient attribuer des devoirs, comme celui de « réparer tout dommage causé à un tiers« . La Commission européenne a maintenant trois mois pour dire si elle compte légiférer sur le sujet.
Le texte note que les ventes de robots ont augmenté en moyenne de 17 % par an entre 2010 et 2014 et que le nombre de demandes de brevets dans ce domaine a triplé au cours des dix dernières années. Le rapport concerne les véhicules autonomes, les drones, les robots industriels, les robots de soins ainsi que les robots de divertissement (mais il exclue les robots considérés comme des armes).
Le plus urgent reste, pour Mady Delvaux, la réglementation de la responsabilité, en particulier dans le secteur des voitures autonomes. Les robots actuels – dont les actions sont préprogrammées – relèvent de la loi « sur les produits défaillants » de 1998 qui, en cas de dysfonctionnement, engage la responsabilité du fabricant. Mais les robots de demain, de plus en plus autonomes, nécessiteront des réglementations spécifiques : certains robots, parmi les plus sophistiqués, sont déjà capables de prendre « des décisions autonomes de manière intelligente » ou d’interagir « de manière indépendante avec des tiers ».
Au printemps 2016, deux accidents mortels ont eu lieu avec des voitures autonomes. Comment, dès lors, déterminer les responsabilités entre le conducteur, le constructeur de la voiture, le créateur du logiciel qui pilote le véhicule autonome ?
Sur la question de la responsabilité, les clients doivent être certains de disposer d’une forme d’assurance en cas de dommage. L’enjeu clé est celui de la sécurité, mais aussi de la protection des données : les robots ne fonctionnent pas sans échange de données, ce qui pose la question de l’utilisation de toutes ces informations.
Certaines voix se sont élevées contre la dimension idéologique sous-jacente de ce rapport.
L’association Europe for Family juge « risqué » tout « mécanisme de responsabilité […] humanisant le robot », parce qu’il « atténue la distinction entre l’homme et la machine dans une vision idéologique transhumaniste ». « La responsabilité est une obligation juridique qui est propre à l’homme, sous sa forme physique ou morale. Le robot n’entre pleinement dans aucune de ces deux catégories ».
Pour Jean-Gabriel Ganascia, professeur d’informatique et d’intelligence artificielle à l’université Paris 6 « Faire du robot un sujet de droit brouillerait la notion d’humanité« .
L’utilisation croissante de la robotique soulève bien des questions éthiques, liées par exemple à la vie privée et à la sécurité. Les députés proposent un code de conduite éthique volontaire sur la robotique pour les chercheurs et les concepteurs. L’objectif est de garantir qu’ils opèrent conformément aux normes juridiques et d’éthique et que la conception et l’utilisation des robots respectent la dignité humaine.
Et la rapporteure, Mady Delvaux, de conclure : « Il faut rappeler aux gens que le robot n’est pas un être humain et qu’il n’en sera jamais un. S’il peut montrer de l’empathie, il n’en ressent pas. Nous ne voulons pas de robots qui ressembleraient de plus en plus aux humains, comme c’est le cas au Japon par exemple. »