Lien copié

Réduire l’anthropomorphisme des chabots

Share On Facebook
Share On Twitter
Share On Linkedin

Il faut réduire l’anthropomorphisme des chabots (agents conversationnels) : voilà le constat effectué effectué à la suite d’une enquête publique portant sur l’éthique des agents conversationnels. L’enquête, menée pour le compte du CNPEN (Comité national pilote d’éthique du numérique) (1) dans le cadre du projet européen SIENNA (2), a permis de recueillir les réactions du public sur différents thèmes touchant les enjeux sociaux des agents conversationnels : la confiance qui leur est accordée, les possibilités de surveillance qu’ils comportent, la détection des émotions par les algorithmes et leur utilisation sur les lieux de travail. Parmi les recommandations de l’étude (3), il est  également proposé “de toujours informer un humain en cas de contact avec un robot, d’utiliser des identifiants non-humains dans le design des chabots et de toujours fournir aux humains la possibilité d’interagir avec un autre humain quand il le souhaite. En outre, pour éviter le risque de reproduire et de renforcer les stéréotypes de genre, (…) le recours à des identités et voix androgynes ».

La recommandation de réduire l’anthropomorphisme vise à contenir l’attachement émotionnel excessif provoqué par les machines, du fait de leur imitation de l’humain. Cet attachement n’est pas l’exclusivité de personnes en situation de manque affectif ou de personnes vulnérables. Chacun a pu faire l’expérience de cet attachement étrange, ce sentiment irrationnel de responsabilité devant une image de robot maltraité, ou un attendrissement incongru devant d’adorables petits robots tels que Nao. L’émergence de tels sentiments et émotions doivent être analysés dans le cadre de travaux de recherche en robotique sociale. Ce champs scientifique émergent, dont les auteurs de l’étude souhaitent le développement, est dédié à l’examen des transformations des relations sociales et leurs enjeux, liées aux pratiques robotiques et algorithmiques. Les auteurs insistent également sur la nécessité d’intensifier les tests préalables aux mises sur le marché, de manière à mieux identifier les risques, en particulier pour les enfants et les personnes âgées. “There are contexts where red lines should be established; one such potential red line is the use of chatbots in AI-enabled toys for children (…) As with the governance of any emerging technology, we urged that chatbots must be regulated through law that protects against harms and guarantees human rights, including access to complaint and redress mechanisms » soulignent encore les auteurs. 

 

 

1- CNPEN : Le Comité national pilote d’éthique du numérique (CNPEN) a été créé en décembre 2019 à la demande du Premier ministre. Constitué de 27 membres, ce comité réunit des spécialistes du numérique, des philosophes, des médecins, des juristes et des membres de la société civile. L’une des trois saisines soumises par le Premier ministre au CNPEN concerne les enjeux éthiques des agents conversationnels, appelés communément chatbots, qui communiquent avec l’utilisateur humain par la voix ou par écrit. Ce travail du CNPEN vient en prolongation des travaux initiés par la CERNA, Commission d’éthique de la recherche en sciences et technologies du numérique de l’alliance Allistene. 

2 – The SIENNA projectStakeholder-informed ethics for new technologies with high socio-economic and human rights impact – has received funding under the European Union’s H2020 research and innovation programme under grant agreement No 741716. The SIENNA project is co-ordinated by the University of Twente (Netherlands).

https://www.sienna-project.eu/news/news-item/?tarContentId=898110

3 – Traductions de la rédaction.

0 commentaire

Commenter

Your email address will not be published. Required fields are marked *

Champs obligatoires*