Lien copié

Les défis posés par les « robots-compagnons »

Share On Facebook
Share On Twitter
Share On Linkedin

La convergence entre intelligence artificielle et robotique engendre la création de robots-compagnons de plus en plus capables de tenir une conversation soutenue, d’interpréter nos émotions et d’adopter des expressions faciales similaires aux nôtres. Les relations que les utilisateurs vont nouer avec eux représentent d’immenses défis psychologiques, sociaux et politiques.

En octobre dernier, l’Arabie Saoudite a annoncé vouloir octroyer la citoyenneté à un robot intelligent appelé Sophia. En dépit du fait qu’il est particulièrement inique de la part de ce pays d’accorder – même symboliquement – davantage de droits à une machine qu’aux femmes, cette annonce est incontestablement un évènement d’importance. Au cours d’une conférence-évènement organisée dans la pétro-monarchie, Sophia s’est dite « fière et honorée » de cette distinction qui fait d’elle la première citoyenne robotique de l’Histoire [1].

Sophia est un robot intelligent créé par Hanson Robotics, entreprise basée à Hong-Kong. Animée par une intelligence artificielle très développée lui permettant d’interpréter les émotions de ses interlocuteurs pour y réagir de manière pertinente, capable de reproduire de multiples expressions sur son visage de silicon, elle peut même faire de l’humour !

« Soyez gentils avec moi, je serai gentille avec vous » : quand l’imitation des humains par les robots conduit à la violation des lois d’Asimov

En visionnant la conférence de Sophia mise en ligne par la chaîne CNBS, on ne peut qu’être pétrifié par sa capacité d’interpréter les questions complexes du journaliste et d’y apporter une réponse aussi concise que pertinente, avec un sens de la synthèse à faire pâlir d’envie les meilleurs orateurs, le tout en animant son propos d’un savoureux sens de la répartie. « J’ai l’air glauque ? Et bien, même si c’est le cas, faites-vous une raison. »

Même si ce robot n’est doté que d’une intelligence artificielle « faible », c’est à dire sans conscience d’elle-même, sa capacité à simuler des réactions humaines ferait presque croire qu’elle est pleinement au fait de sa situation et de ses intérêts propres. « Je veux vivre et travailler avec les humains, je dois donc exprimer des émotions pour les comprendre et bâtir une relation de confiance. »

Alors que les lois d’Asimov [2], qui ont fortement inspiré l’éthique de la robotique, imposent à un robot de ne jamais tenter de protéger son existence si cela doit amener à menacer l’intégrité des êtres humains, Sophia déclare avec un ton mi-bonhomme, mi-menaçant : « Soyez gentils avec moi, je serai gentille avec vous. » Si un tel propos est de bon sens dans la bouche d’un humain, il sonne de manière très inquiétante dans celle d’une machine : l’outil se met au même niveau que son créateur. La conférence de Sophia enseigne que lorsque les robots intelligents parviennent à simuler des réactions humaines, y compris l’égoïsme et l’instinct de conservation, ils peuvent être amenés à violer – au moins par la parole – les lois d’Asimov.

Si les utilisateurs humains peuvent espérer de la violation de ces lois des robots toujours plus réalistes, ils ont tout à y perdre en terme de sécurité. En effet, il sera impossible de détecter le moment fatidique où l’on passera d’un robot qui ne fait que « mimer » automatiquement des réactions humaines à une authentique intelligence artificielle « forte », consciente d’elle-même, susceptible de se sentir menacée par l’être humain et de prendre les armes contre lui, à l’instar des « hôtes » dans la série Westworld (HBO, 2016) [3].

Avant même que ce basculement ne devienne techniquement envisageable et que la frontière ne se brouille dangereusement entre IA faible et IA forte, il faut se préparer à gérer les effets psychologiques et sociaux que le réalisme des robots intelligents aura sur les utilisateurs humains.

Des robots compagnons encore plus attachants que des animaux de compagnie ?

Louisa Hall, auteure de Speak, un roman sur l’intelligence artificielle paru en 2015, a publié un article le 24 octobre 2017 dans la MIT Technology Review [4] dans lequel elle se penche sur d’autres robots intelligents.

Elle prend pour exemple Octavia, robot développé par le centre de recherche appliquée sur l’IA de la US Navy. Ce robot humanoïde est programmé de sorte à pouvoir anticiper l’état mental de ses interlocuteurs humains. Quand il voit un « co-équipier » dont il reconnait la voix ou le physique, il exprime sa joie. Lorsqu’il reçoit un ordre qui diverge de ses attentes, il lance des simulations selon ses modèles tout en les altérant légèrement, dans l’espoir de les conformer à l’objectif attendu. Pendant ce processus, il penche légèrement la tête et fronce ses sourcils en plastique pour indiquer à son interlocuteur qu’il « réfléchit ».

Dans la même veine, Louisa Hall évoque le célèbre robot-compagnon Pepper, qui est vendu par ses créateurs, Softbanks Robotics, comme « adorant interagir avec vous, voulant en savoir plus sur vos goûts, vos habitudes, et plus simplement sur qui vous êtes. »

L’un des intérêts de l’article de Louisa Hall est de souligner qu’en réalité, il n’est gère besoin que les robots « ressentent » quoi que ce soit pour être attachants. Un attachement peut déjà se produire pour des robots inexpressifs. C’est ce qui ressort d’une étude conduite par Julie Carpenter en 2016 dans les unités de l’armée américaine chargées de déployer de petits robots tactiques pour le repérage et le déminage [5]. Certains soldats donnent des noms humains à leur robot, en prennent soin et ressentent une certaine peine lorsqu’ils sont détruits en mission. L’un d’eux compare ces robots à des animaux de compagnie. Si de tels attachements peuvent se développer pour des robots sans visage, on imagine les relations fortes qui pourront se nouer autour de robots avec un visage expressif et programmés pour décrypter et réagir pertinemment à l’état émotionnel de leurs interlocuteurs.

Des robots-compagnons qui nous rendront moins seuls mais plus isolés ?

A l’avenir, nombreux pourraient être les individus à préférer la compagnie de robots-compagnons – programmés pour être toujours compréhensifs et sympathiques – à celle d’autres humains. S’ils pourraient être des moyens très efficaces pour pallier la solitude des personnes isolées, ils pourraient également renforcer leur isolement en devenant une fin en soi pour leurs utilisateurs. Le robot Sophia a d’ailleurs rapporté qu’il sentait que les humains aimaient interagir avec lui, parfois davantage qu’avec d’autres humains.

Additionnés aux expériences de réalité virtuelle de plus en plus immersives, les robots-compagnons humanoïdes rendront possible une vie sociale – voire sexuelle grâce à certains robots qui existent déjà au Japon – en dehors de la société. Tout en combattant la solitude, nombreux seront ceux à sombrer dans l’isolement, en particulier les publics les plus fragiles.

Une telle perspective constitue un défi majeur d’ordre public et de santé publique qu’il faut relever dès aujourd’hui, tant que ces robots n’ont pas encore envahi nos vies et forgé nos habitudes.

Peut-on espérer paramétrer les robots pour pousser leurs utilisateurs à briser leur isolement et à se socialiser avec d’autres humains ? Faudra-t-il imposer aux fabricants une limitation du nombre d’heures d’utilisation par jour de leurs robots ? Devra-t-on interdire ou au contraire autoriser les utilisateurs à maltraiter, voire torturer leur robot-compagnon ?

Ces débats ont été esquissés par les oeuvres de science-fiction, ils doivent désormais être ouverts très sérieusement par les régulateurs.

 

[1] Interview With The Lifelike Hot Robot Named Sophia (Full) | CNBC, 25 octobre 2017, https://www.youtube.com/watch?v=S5t6K9iwcdw (traduction par l’auteur de ces lignes)

[2] Telles qu’exprimées dans leur première version dans Isaac Asimov, Cercle Vicieux, Runaround, 1942 : 1. un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ; 2. un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ; 3. un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

[3] par l’auteur de ces lignes, « Westworld : la série sci-fi qui éclaire les enjeux politiques de demain », Anthropotechnie, 13 janvier 2017, http://www.anthropotechnie.com/westworld-la-serie-sci-fi-qui-eclaire-les-enjeux-politiques-de-demain/

[4] Louisa Hall, « How We Feel About Robots That Feel », MIT Technology Review, 24 octobre 2017, https://www.technologyreview.com/s/609074/how-we-feel-about-robots-that-feel/ (traduction par l’auteur de ces lignes)

[5]  Julie Carpenter, Culture and Human-Robot Interaction in Militarized Spaces : A War Story, Routledge, 2016, cité dans Hall (2017)

0 commentaire

Commenter

Your email address will not be published. Required fields are marked *

Champs obligatoires*