04 / 10 / 2018
#Portrait

« L’homme est largement au-dessus de la machine, on ne doit pas le rabaisser en faisant de celle-ci son égal juridique »

  • Linkedin
« L’homme est largement au-dessus de la machine, on ne doit pas le rabaisser en faisant de celle-ci son égal juridique »
Maître de conférences en droit privé à l’Université d’Artois, spécialiste du droit et de l’éthique de l’intelligence artificielle, Nathalie Nevejans a rédigé une lettre ouverte à la Commission européenne mettant en garde contre la création d’une personnalité juridique pour les robots. Une mesure selon elle à la fois inutile et dangereuse. Rencontre.

Vous avez rédigé, en compagnie d’un panel d’experts venus de différents horizons, une lettre ouverte à la Commission européenne prenant position contre la création d’une personnalité juridique pour les robots. Pouvez-vous commencer par retracer le contexte dans lequel vous avez rédigé cette lettre ?

Tout a commencé avec la résolution européenne de février 2017, qui propose un encadrement juridique pour les robots. Ce texte suggère notamment d’accorder une personnalité juridique aux robots les plus évolués, idée qui me semble très inquiétante. La résolution ayant été adoptée par le Parlement européen, la prochaine étape est la mise en place d’une directive de la Commission européenne : là où la résolution n’est qu’un avis, sans valeur juridique, la directive, elle, est un texte obligatoire qui s’applique dans tous les pays de l’Union. Dans cette perspective, j’ai décidé de rédiger cette lettre ouverte afin d’avertir la Commission européenne du danger que constitue la mise en place d’une personnalité juridique pour les robots. Cette lettre a été signée par des médecins, des psychologues, des juristes, mais aussi par des experts en intelligence artificielle et en robotique, ainsi que des fabricants de robots.

Votre appel a-t-il été entendu ?

En avril dernier, la Commission a présenté une série de mesures visant à mettre l’intelligence artificielle au service des citoyens européens et à stimuler la compétitivité de l’Europe dans ce domaine. Or, dans cette communication, l’idée de conférer une personnalité juridique aux robots n’est pas évoquée, ce qui donne bon espoir pour la suite, mais nous demeurons pour l’heure dans l’attente de la directive pour être fixés une bonne fois pour toutes.

Quels sont les dangers que représenterait, selon vous, l’adoption d’une personnalité juridique pour les robots ?

Il faut d’abord distinguer deux cas de figure possibles. Le premier serait de doter les robots d’une personnalité juridique, sur le modèle humain. Plusieurs indices semblent indiquer une volonté d’aller dans ce sens-là. Ainsi, dans le texte de la résolution européenne de février 2017, on trouve l’idée que les robots ne sont pas de simples objets et qu’ils sont plus évolués. D’ailleurs dans l’avant-projet de résolution, on évoquait même l’idée qu’ils pourraient potentiellement un jour avoir une conscience… Tous ces indices laissent penser qu’on pourrait tendre à leur accorder la personnalité juridique sur le modèle des personnes physiques, bien que cela ne soit jamais clairement évoqué. Or, doter les robots d’une personnalité juridique, c’est leur donner des obligations, mais aussi des droits, qui seraient alors alignés sur le modèle des droits accordés aux humains, dont le droit à la dignité, à la liberté, celui de ne pas être détruit. Ce qui pose un vrai problème d’ordre philosophique et anthropologique. L’homme est largement au-dessus de la machine, on ne doit pas le rabaisser en faisant de celle-ci son égal juridique. À ce propos, il est d’ailleurs frappant de constater que, lorsque la personnalité juridique est évoquée, c’est toujours à propos de robots humanoïdes.

« Or, doter les robots d’une personnalité juridique, c’est leur donner des obligations, mais aussi des droits, qui seraient alors alignés sur le modèle des droits accordés aux humains, dont le droit à la dignité, à la liberté, celui de ne pas être détruit. »

On crée ainsi une association terrible et marquante pour les profanes entre robots et humains. Il y a, en outre, la référence récurrente aux lois d’Asimov, qui est un auteur de science-fiction, ce qui contribue encore à mêler réalité et fiction dans l’imaginaire du public. Celui-ci est souvent très mal informé par les médias qui doivent faire le buzz pour l’intéresser, et parfois par les professionnels de l’intelligence artificielle eux-mêmes qui se voient contraints d’exagérer leurs résultats pour parvenir à trouver des financements. On laisse entendre que les machines de demain seront merveilleuses, proches de ce que dépeint la littérature et le cinéma, autant d’idées trompeuses dont il faut selon moi se débarrasser.

Certains proposent plutôt de s’inspirer du statut de personne morale, que l’on confère à des entités non humaines, comme les entreprises…

C’est le second cas de figure, et il pose lui aussi un certain nombre de problèmes. D’abord, dans le cas d’une entreprise, il y a toujours des humains aux commandes, pour la représenter et la diriger, ce qui n’est pas le cas pour un robot. En outre, au regard du contexte transhumaniste, le fait d’accorder des droits à une machine, même sous forme de personne morale, pourrait mener à une pente dangereuse, à un glissement progressif vers l’attribution de davantage de droits, rapprochant ainsi les robots des humains d’un point de vue juridique. On retombe alors sur le risque qui consiste à assimiler les robots aux humains. À ces problématiques d’ordre philosophique et anthropologique s’en ajoutent d’autres, d’ordre juridique. En effet, un robot doté d’une personnalité juridique serait, une fois mis sur le marché, responsable des dommages qu’il pourrait causer.

 

« On retombe alors sur le risque qui consiste à assimiler les robots aux humains »

 

Or, comme les robots ne sont pour l’heure pas assez évolués pour être autonomes et capables de s’autodéterminer, leurs erreurs, par exemple, ne pourraient pas leur être imputables. Dès lors, il est quasiment certain que ce serait l’acquéreur du robot qui en serait responsable. Ainsi, tout accident provoqué par le robot engagerait la responsabilité de son propriétaire, à qui incomberait alors la charge d’indemniser les victimes à travers son assurance. Les fabricants, eux, étant déresponsabilisés, pourraient se montrer moins vigilants sur la fiabilité et la sécurité des robots qu’ils confectionneraient. De quoi instaurer une défiance du public vis-à-vis de ces machines. On peut noter à ce propos que ce n’est pas nécessairement ce que les fabricants demandent, puisqu’un certain nombre d’entre eux ont aussi signé la lettre ouverte.

À votre avis, le droit actuel offre donc un cadre satisfaisant ? Il n’est pas nécessaire de l’adapter ?

En effet. Les règles de mise sur le marché d’une machine, déjà en vigueur, peuvent très bien s’appliquer aux robots, du moins pour encore quelques années. Elles permettent d’être certains que les robots mis sur le marché sont sûrs d’utilisation pour les personnes. Il faut aussi compter sur les règles relatives aux produits défectueux. Ainsi, si un robot cause un accident en raison d’un défaut de sécurité, c’est le fabricant qui est responsable. En revanche, s’il n’y a pas de défaut de sécurité, l’accident qu’il cause est imputable au seul utilisateur. Si un individu, par exemple, envoie sa tondeuse robotisée sur le chien de son voisin et le blesse, c’est lui qui est responsable et non le fabricant. Ce cadre fonctionne très bien et s’applique déjà aux robots.

Les récents progrès de la robotique et de l’intelligence artificielle introduisent toutefois une nouveauté : celle des algorithmes d’apprentissage machine, dont il est parfois impossible de retracer les décisions. Il pourrait ainsi devenir difficile de déterminer qui est responsable en cas d’accident, par exemple dans le cas d’une voiture autonome. Comment savoir si l’accident a été provoqué ou non par un défaut dans le fonctionnement de l’algorithme ?

D’abord, pour le cas particulier des véhicules autonomes, le droit a toujours fait des véhicules une exception. Ils sont soumis à des règles spécifiques d’assurance, de responsabilité, etc. Il serait donc logique d’adopter également des règles différentes pour les voitures autonomes, par rapport aux autres robots. Ensuite, pour ce type de logiciels d’apprentissage machine, on pourrait très bien imaginer de passer d’abord par une période d’initiation en espace clos, durant laquelle on s’assurerait que les données employées soient sécurisées et débarrassées de tout biais potentiel, de façon à garantir le bon fonctionnement de l’algorithme avant sa mise sur le marché. Si, après un accident, il s’avérait que l’algorithme avait été déployé avant d’avoir été suffisamment testé, ou que les données employées pour l’entraîner n’offraient pas satisfaction, alors la responsabilité du fabricant pourrait être engagée. La question des « boîtes noires » que constituent ces algorithmes est, en outre, un enjeu majeur autour duquel des experts se mobilisent. Ainsi, le rapport Villani préconise de créer des Instituts régionaux consacrés à l’intelligence artificielle, les fameux Instituts 3IA. Je fais partie, en compagnie d’autres experts, du comité de pilotage d’un projet d’Institut dans le Nord. L’un des objectifs, sous réserve de validation par le comité international d’évaluation, serait d’œuvrer à l’ouverture des « boîtes noires », de faire en sorte que les algorithmes puissent expliquer leurs décisions. Il deviendrait alors impossible de se réfugier derrière cette « boîte noire » pour échapper à sa responsabilité.