Lien copié

Dis Siri ... !? Quelle responsabilité pour l'IA ... ?

A lire sur le blog “La loi des parties“, un article de Stéphane Larrière, directeur juridique chez Atos, sur la responsabilité de l’intelligence artificielle. 

Stéphane Larrière s’interroge sur la possibilité pour l’intelligence artificielle d’être objet ou sujet de droit et engager par son action ou inaction sa responsabilité en cas de préjudice.
Le droit de la responsabilité civile actuellement en vigueur s’applique-t-il à l’intelligence artificielle, ou une intervention législative sera-t-elle nécessaire pour appréhender la question de la responsabilité de l’intelligence artificielle ?

Pour  répondre à cette problématique, Stéphane Larrière prend l’exemple de Siri, défini comme un agent artificiel agissant pour le compte de quelqu’un en réalisant pour lui certaines tâches automatisées à partir de bases de données de connaissances collectées au fur et à mesure de ses interactions et expériences avec le monde.

Les enjeux de responsabilité sont différents selon que l’intelligence artificielle est faible, c’est-à-dire lorsqu’elle se limite à répondre à certaines missions spécifiques en imitant l’intelligence humaine – comme ce que fait Siri actuellement – ou que l’intelligence artificielle est forte, c’est-à-dire plus autonome, l’agent artificiel se détachant progressivement de sa programmation. Cette intelligence artificielle forte est alors caractérisée par une marge d’indétermination, d’imprévisibilité et, par sa soustraction, à l’action humaine.

Intelligence artificielle et responsabilité contractuelle

Afin de mettre en œuvre la responsabilité contractuelle, il faut qu’un contrat ait été valablement conclu. Parmi les conditions essentielles à la formation d’un contrat figure la capacité. Or, la capacité de contracter, telle qu’entendue par l’article 1128 du Code civil, ne concerne que des personnes humaines. Dès lors, l’intelligence artificielle ne peut voir sa responsabilité contractuelle engagée car il ne s’agit pas d’un sujet de droit.

 Intelligence artificielle et responsabilité civile délictuelle

Selon le régime de la responsabilité du fait des choses, la personne ayant l’usage, le pouvoir de contrôle et de direction d’un objet impliqué dans un fait dommageable répond de ce dommage, même si elle n’a pas commis de faute. L’engagement de la responsabilité d’un individu du fait d’une chose instrument d’un dommage est donc subordonné à l’action humaine opérée sur cette chose. Or, l’intelligence artificielle forte se soustrayant à l’action humaine, celle-ci ne rentre alors pas dans le champ d’application de la responsabilité du fait des choses.

Dès lors, qui doit répondre du dommage et le réparer ? Stéphane Larrière s’interroge sur la possibilité d’appliquer une responsabilité du fait des choses sans faute, déterminé en fonction du degré d’autonomie de l’intelligence artificielle.
D’autre part, Stéphane Larrière constate que les dommages causés par l’intelligence artificielle sont de nature programmatique ou résultent d’un dysfonctionnement par rapport à l’usage ou au résultat attendu. Par conséquent, en l’état actuel du droit, il faudrait faire peser la responsabilité sur la tête du concepteur de l’intelligence artificielle. Or, cette solution ne prend pas en considération l’apprentissage de l’intelligence artificielle, ni sa capacité d’initiative.

C’est face à ce constat que le livre blanc Gouvernance de l’intelligence artificielle dans les entreprises établi par le CIGREF et Lexing Alain Bensoussan Avocats a préconisé la mise en place d’un régime de responsabilité en cascade prenant en considération la responsabilité de l’utilisateur, qui s’occupe de la partie apprentissage de l’intelligence artificielle sur le schéma suivant :

• le ou les utilisateurs de l’intelligence artificielle du fait de sa capacité d’apprentissage

• son propriétaire s’il est différent 

• le concepteur.

 

 

 

0 commentaire

Commenter

Your email address will not be published. Required fields are marked *

Champs obligatoires*