Lien copié

A tout hasard : éthique humaine et algorithmes

Ethique et algorithmes, si le sujet est désormais classique, il est içi traité de manière originale, du point de vue d’un physicien-philosophe. Au premier abord, le postulat d’Alexei Grinbaum, chercheur au CEA, dans “Les robots et le mal”, semble étrange : s’en remettre au hasard, pour sortir de l’impasse où l’on se trouve si l’on veut inculquer des notions de morale à une machine, un individu numérique. Une machine pour qui les données et les objectifs sont asémantiques, ils n’ont pas de sens. Puis le lecteur comprend que le hasard numérique ne correspond pas exactement au hasard « naturel ». Il est la conséquence de la complexité technique, celle des algorithmes. Ce hasard est ainsi produit, il possède une valeur technique et ne représente pas le même caractère aléatoire que le hasard « naturel ».

Quoiqu’il en soit, il faut admettre ce hasard puisqu’il résulte du caractère fonctionnel intrinsèque des individus numériques : « la communication fait partie de l’individu numérique et définit sa nature ; rapporter des informations jusque-là voilées… si la seule raison de notre mécontentement réside dans le fait que ce comportement serait intolérable pour l’homme, il s’agit d’un anthropomorphisme à coup sûr trop facile, à la portée très limitée ». Sur le lien entre caractère fonctionnel de la machine, le mal et les anges et démons, la lecture de l’ouvrage dans son intégralité, en particulier le chapitre 4 « La question du mal pour l’intelligence artificielle » est indispensable.

Force est alors d’admettre deux éléments. Premièrement que le hasard caractérise les décisions algorithmiques. Deuxièmement que le programmeur, à l’origine de l’algorithme, est dans l’incertitude quand aux effets de sa programmation. Car « la structure d’un système informatique, apprenant et autonome, est trop complexe pour que l’auteur du code source puisse prévoir toutes les décisions qui seront prises par le logiciel ». Sa connaissance des décisions numériques est limitée.
De ce fait, les algorithmes ne peuvent ni être des agents moraux, ni endosser des responsabilités. D’où le schéma suivant de responsabilités partagées pour les conséquences des décisions numériques, établi par l’auteur :
– La responsabilité matérielle de l’utilisateur, au sens du droit de la propriété. Mais il faut garder en tête que, pour l’utilisateur, l’algorithme reste une boite noire.
– La responsabilité de l’individu numérique. « Puisque ce dernier n’est pas un sujet de droit, cette responsabilité est transmise au code source, qui à son tour est immanent au programmeur ». Pour le programmeur, l’incertitude n’efface pas la responsabilité. Le concepteur se voit donc attribuer une responsabilité, mais noxale, c’est à dire qui peut être abandonnée. Ainsi dans l’open source, la démarche signifie l’abandon.
– La responsabilité de l’entraineur, c’est à dire celui qui « sélectionne les données et les fournit au système apprenant », même si l’utilisation de ces données est indépendante de sa volonté.
De cette idée de hasard numérique, découle l’hypothèse soutenue par l’auteur que « les modalités générales de l’emploi de l’abandon noxal en informatique demandent encore à être comprises mais il existe peu de doutes que, tôt ou tard, elles seront juridiquement codifiées ».

De manière plus générale, A. Grinbaum appelle à l’avènement d’une réflexion «métanumérique», en pendant de la métaphysique du bien et du mal, pour étudier les modes d’existence de l’individu numérique. Il s’agit de poser le problème du bien et du mal d’une manière nouvelle, en langage fonctionnel, sans anthropomorphisme aucun, avec l’information asémantique comme « l’unique aliment de son éthique”.

 

Alexei Grinbaum. Les robots et le mal. Paris : Desclée de Brouwer, 2018. 19,90 euros.

0 commentaire

Commenter

Your email address will not be published. Required fields are marked *

Champs obligatoires*