Lien copié

Robots tueurs, moralité et dignité humaine.

Share On Facebook
Share On Twitter
Share On Linkedin

Des “robots tueurs” auraient la possibilité de retirer la vie. Derrière l’expression popularisée de “robots tueurs”, se profile toute une série d’armes programmées et commandées à distance et plus ou moins autonomes.  Les SALA, Systèmes d’Armes Létales Automatisées  (LAWS, Lethals Automatized Weapons) représenteraient le stade ultime de l’automatisation, celui de l’autonomie. Les SALA se définissent alors comme des systèmes d’armes capables de choisir et d’engager seuls une cible, sans intervention humaine, dans un environnement changeant (1).

Beaucoup se demandent s’il  est conforme à l’idée que l’on doit se faire de la dignité humaine, qu’un jour, un robot puisse être suffisamment autonome pour se voir confier cette responsabilité ultime qu’est la décision de tir. Le maintien de “l’humain dans la boucle”, d’une décision qui ressortirait in fine de l’humain, reste le socle des politiques publiques dans ce domaine. Cette affirmation ne dit pourtant rien des conditions réelle du partage de l’autorité. L’humain garde le contrôle certes, mais dans quelle partage d’autorité avec la machine, à quel moment, à quelle distance ? En dehors des problèmes moraux et des problèmes de prolifération, l’émergence des SALA entraine toute une séries d’autres interrogations  : les risques d’erreurs liées aux capacités réelles des algorithmes dans la distinction entre un combattant et un autre combattant, entre un combattant et un civil,  les problèmes de sécurité que posent les possibilités de hacking, le risque de déconnexion accidentelle ou volontaire, la nécessité de maintenir un “bouton rouge” en cas d’urgence…

Comment aborder, d’un point de vue moral, la question de la délégation du tir fatal ?  La délégation du pouvoir de vie et de mort à des machines serait contraire au principe de dignité humaine, induirait une dévalorisation de l’existence humaine. La distanciation grandissante entre la cible et l’opérateur constitue le cadre de ces interrogations. La dignité se perdrait dans la distanciation entre l’intention humaine et la décision de tirer. Dans cette délégation de tir, l’humain serait réduit à devenir une cible, au même titre que n’importe quel objet. : « the importance of retaining human agency – and intent – in decisions to use force, is one of the central ethical arguments for limits on autonomy in weapon systems. Many take the view that decisions to kill, injure and destroy must not be delegated to machines, and that humans must be present in this decision-making process sufficiently to preserve a direct link between the intention of the human and the eventual operation of the weapon system. Closely linked are concerns about a loss of human dignity. In other words, it matters not just if a person is killed or injured but how they are killed or injured, including the process by which these decisions are made. It is argued that, if human agency is lacking to the extent that machines have effectively, and functionally, been delegated these decisions, then it undermines the human dignity of those combatants targeted, and of civilians that are put at risk as a consequence of legitimate attacks on military targets » est-il indiqué dans le rapport Ethics and autonomous weapon systems: An ethical basis for human control ?,  publié par le Comité international de la Croix Rouge, ICRC, International Committee of the Red Cross (2). On peut cependant se demander quelle serait, sur la base de cette argumentation et à horreur égale, la différence entre une mort qui serait donnée par un missile programmé et commandé à distance, et une mort qui serait donnée par un robot de type SALA davantage automatisé, un robot tueur. Les deux restent des machines automatisée, la différence résidant dans le degré d’autonomie. Ce qui induit une différence évidente, sur le plan pratique, dans le risque d’erreur de cible, dans le caractère terrorisant d’armées de robots-soldats humanoïdes ou de la pullulation d’essains de drones, mais une différence peut-être moins évidente sur le plan purement moral. 

Quelle serait alors le problème moral spécifique lié aux SALA, en tant que machines autonomes,  par rapport à d’ autres armes qui seraient plus simplement automatisées ? Le robot, même autonome, pas plus que d’autres machines, ne sera jamais moral au sens d’”avoir une morale”. Le robot en général et le “robot tueur” en particulier ne peuvent être moraux, au sens de la compréhension du bien et du mal, de valeurs et d’un sens à donner à leurs actions. Le pouvoir de la machine s’arrête au calculable, à ce qui se met en équations. La limite de la machine se trouve le non calculable, l’incapacité de résoudre un dilemme moral avec le recours de son intuition, la difficulté d’établir un jugement en l’absence de certitudes. De ce point de vue,  un robot qui serait moral est davantage un robot acceptable pour tous en raison de sa neutralité. L’adjectif moral, appliqué à un robot qualifie non pas un sens à l’action qui serait déterminé par des valeurs, mais des modalités pratiques pour la prise de décision. Ce robot serait neutre, animé par une algorithme exempt de biais, et dont les décisions seraient toujours compréhensibles, ce qui est loin d’être le cas aujourd’hui. L’effet « boite noire » (2) des algorithmes, l’impossibilité d’expliquer les mécanismes qui conduisent à une décision, est propre aux systèmes algorithmiques dit de “deep learning”. La complexité va de pair avec l’efficacité, au détriments de l’explicabilité. Ne serait-ce pas là, en définitive, dans l’absence d’explicabilité,  le problème majeur et persistant de la délégation de la décision de tirer à des machines.  Cette question, dans le domaine militaire, prend une ampleur considérable et incommensurable. Car, en simplifiant un peu, comment accepter d’enlever la vie pour des raisons qui ne seraient pas complètement expliquées ?  L’inacceptable se trouverait peut-être aussi ici, dans les méandres de la boîte noire. Les considérations d’efficacité et de rapidité sont ici à mettre en balance avec d’autres considérations. Et viennent se confronter aux impératifs liés à la géopolitique, à la volonté de puissance de certains Etats. A l’objectif  d’éviter de plus grand maux, de protéger des vies humaines, celles des combattants, mais aussi des vie civiles.

. ’

 

1 – Selon les rapporteurs de la Commission de la défense nationale et des forces armées de l’Assemblée Nationale, les SALA peuvent se définir de deux manières, l’une extensive et l’autre restrictive.  
– d’une part, les définitions extensives, regroupant sous l’acronyme « SALA » l’ensemble des systèmes d’armes robotisés dotés d’une capacité létale, quel que soit leur niveau d’autonomie. Ces définitions conduisent à inclure sous la dénomination de SALA tant des systèmes téléopérés, tels les drones aériens employés par les forces françaises au Sahel, que des systèmes automatiques ou automatisés, employés par les forces depuis des décennies. Ce type de définition a les faveurs de la plupart des acteurs de la société civile, et notamment des organisations non gouvernementales regroupées sous la bannière de la campagne « Stop Killer Robots » ;

– d’autre part, une définition plus restrictive, centrée sur la notion d’autonomie, entendue comme la capacité pour un robot de se fixer ses propres règles et de fonctionner indépendamment d’un autre agent, qu’il s’agisse d’un être humain ou d’une autre machine ([2]). Une telle définition a les faveurs des grandes puissances militaires, dont la France.

Dans ce contexte, les rapporteurs ont fait leur, la définition exposée par M. Jean-Baptiste Jeangène Vilmer, présentée comme communément admise sur la scène internationale, et selon laquelle les SALA sont des systèmes d’armes capables de choisir et d’engager seuls une cible, sans intervention humaine, dans un environnement changeant »

Rapport sur les systèmes d’armes létaux autonomes. Mission d’information de la Commission de la défense nationale et des forces armées. Assemblée nationale. Juillet 2020. http://www.assemblee-nationale.fr/dyn/15/rapports/cion_def/l15b3248_rapport-information

 
2 – International Committee of the Red Cross (ICRC). Ethics and autonomous weapon systems: An ethical basis for human control ? Geneva, 3 April 2018

3 – Le problème de la boite noire : pour faire confiance aux algorithmes faut-il les comprendre ? Voir article de ce blog du 20 décembre 2019.http://www.anthropotechnie.com/le-probleme-de-la-boite-noire-faut-il-comprendre-les-algorithmes-pour-leur-faire-confiance/

 

0 commentaire

Commenter

Your email address will not be published. Required fields are marked *

Champs obligatoires*