Lien copié

Deadbot, agent influenceur… : les multiples enjeux éthiques des chatbots.

https://www.youtube.com/watch?v=MBe3AWOCqFQ

“Agents conversationnels : enjeux d’éthique » :  la table ronde de présentation de l’avis du CNCE concernant les agents conversationnels ou chabots est en ligne. Les chatbots se définissent comme des  “systèmes numériques capables d’interagir avec leurs utilisateurs en langage naturel, à l’écrit comme à l’oral. Le plus souvent, un agent conversationnel ne constitue pas une entité indépendante mais est intégré dans un système ou une plateforme numérique multitâche, comme un smartphone ou un robot ». La nouveauté aujourd’hui réside dans les transformers, “des technologies qui intègrent la possibilité de générer du texte avec énormément de contenus qu’on va chercher dans des modèles pré-entrainés, donc on n’a pas de maitrise sur le contenu des données qui ont été utilisées … » précise Laurence Devillers. Les transformers ouvrent la possibilité de « systèmes gigantesques de production automatique de texte » précise Alexei Grinbaum.
 
Les recommandations du CNCE pour « accompagner ces nouveaux objets“concernent à la fois les usages, les applications pour les personnes vulnérables, les jouets pour enfants, les milieux professionnels et le recrutement ou encore pour les personnes décédées (deadbots).  Par exemple :
Préconisation 1 : réduire la projection de qualités morales sur un agent conversationnel.
Pour réduire la projection spontanée de qualités morales sur l’agent conversationnel et l’attribution d’une responsabilité à ce système, le fabricant doit limiter sa personnification et informer l’utilisateur des biais éventuels issus de l’anthropomorphisation de l’agent conversationnel.
Préconisation 5 : informer sur la manipulation a dessein.
Dans l’hypothèse où l’agent conversationnel a été programmé de manière à pouvoir influencer le comportement de l’utilisateur dans le cadre de sa finalité, le fabricant doit informer l’utilisateur de l’existence de cette capacité et recueillir son consentement, qu’il doit pouvoir à tout moment retirer. Le fabricant d’un agent conversationnel influenceur doit permettre aux utilisateurs d’être informés sur la nature, l’origine et les modalités de diffusion des messages qui sont émis par cet agent, et leur demander d’être vigilants avant de propager ces messages.
Préconisation 12 : encadrer techniquement les deadbots
Les concepteurs de « deadbots » doivent respecter la dignité de la personne humaine qui ne s’éteint pas avec la mort, tout en veillant à préserver la santé mentale des utilisateurs de tels agents conversationnels. Des règles doivent être définies concernant notamment le consentement de la personne décédée, le recueil et à la réutilisation de ses données, le temps de fonctionnement d’un tel chatbot, le lexique utilisé, le nom qui lui est attribué ou encore les conditions particulières de son utilisation.
 
D’autres recommandations concernent les ingénieurs, pour le respect de principes dans la conception des agents conversationnels. Pour  avancer dans l’appréciation des effets des chatbots, des questions de recherches sont identifiées,  par exemple dans les domaines suivants : 
– Les effets éducatifs
– Les effets sur l’organisation du travail
– Les effets sur le comportement émotionnel des êtres humains (l’expression « effet ELIZA » désigne la tendance à assimiler de manière inconsciente le dialogue avec un ordinateur à celui avec un être humain).

La table-ronde de présentation du troisième avis du Comité national pilote d’éthique du numérique rassemble  les internants suivants  : Laurence Devillers, co-rapporteure de l’avis, Alexei Grinbaum, co-rapporteur de l’avis et Bertrand Pailhès, directeur des technologies et de l’innovation de la CNIL Animation : Claude Kirchner, directeur du Comité national pilote d’éthique du numérique.

Presque 10 ans après le film Her, les enjeux sont énormes mais finalement pas si surprenants …
 
 
 

0 commentaire

Commenter

Your email address will not be published. Required fields are marked *

Champs obligatoires*