Lien copié

Les robots sont-ils des personnes non humaines ? Les arguments du débat (1)

- 
Share On Facebook
Share On Twitter
Share On Linkedin

 

Peut-on qualifier les robots de personnes non humaines ? Aujourd’hui, des décisions sont prises par les algorithmes. Demain, des voitures autonomes pourront provoquer des accidents, des armes létales autonomes pourront frapper… La question de la responsabilité pour les actes des machines autonomes s’introduit à toute vitesse dans le débat public. Penser la responsabilité juridique des actes et des décisions émanant de systèmes intelligents (cf. article de ce blog du 25/10) sous-tend un autre débat bien plus complexe. Envisager un cadre juridique nécessite au préalable de décider quel est le véritable statut de ces systèmes (ou agents, selon le vocabulaire choisi).

Au printemps dernier, un rapport du Parlement Européen avait provoqué quelques remous en évoquant les robots comme des personnes électroniques non humaines. Dans ses propositions à la Commission Européenne sur des règles de droit civil sur la robotique, la Commission des affaires juridiques du Parlement européen avait suggéré : «la création d’une personnalité juridique spécifique aux robots, pour qu’au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques dotées de droits et de devoirs bien précis, y compris celui de réparer tout dommage causé à un tiers ; serait considéré comme une personne électronique tout robot qui prend des décisions autonomes de manière intelligente ou qui interagit de manière indépendante avec des tiers ».

Dans la même perspective, certains auteurs – indépendants du courant de pensée transhumaniste – s’élèvent pour défendre l’idée de robots comme des personnes non humaines. Ce débat vient heurter des convictions profondes, les valeurs morales qui se rattachent à la notion de “personne”. Il touche à l’intangibilité de la condition d’une personne et des valeurs humaines qui s’y rattachent. Il mérite néanmoins qu’on se penche (dans les prochaines éditions de ce blog) sur les arguments des protagonistes, en particulier John Harris, professeur émérite de bioéthique à l’Université de Manchester, et I. Glenn Cohen, professeur de droit à l’Université de Harvard.

 

Pour en savoir plus : 

1) Rapport sur l’éthique de la recherche en robotique. Rapport de la CERNA, Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique d’Allistène. http://www.allistene.fr

2) En préparation : l’Office parlementaire d’Evaluation des Choix Scientifiques et techniques, OPECST, publiera au premier semestre 2017 un rapport sur l’intelligence artificielle, la culture de la responsabilité et les questions éthiques. 

3) Projet de rapport de la Commission des affaires juridiques du Parlement européen sur le droit civil de la robotique, 31 mai 2016.

http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+COMPARL+PE-582.443+01+DOC+PDF+V0//FR&language=FR

1 commentaire

Commenter

Your email address will not be published. Required fields are marked *

Champs obligatoires*