Lien copié

Compagnons IA (4) : Carebots, les robots de soins pour personnes âgées.

Share On Facebook
Share On Twitter
Share On Linkedin

Les robots d’accompagnement pourraient bien représenter la prochaine vague d’innovation sociale dans le domaine des soins aux personnes âgées“. Aider les personnes agées dans leur vie quotidienne constitue un objectif légitime, pour peu que les IA en question se conforment scrupuleusement aux besoins des personnes âgées pour la mise en relation avec un service d’urgence en cas de besoin, la surveillance du sommeil, les conseils de gestion de la douleur, du stress et de l’anxiété, et surtout la diminution du sentiment de solitude et la détresse émotionnelle. Un jour peut-être pour les prises de médicaments et les fonctions ménagères… Les personnes âgées concernées, détaillent les auteurs de l’étude (1), sont celles qui sont atteintes de troubles cognitifs légers, c’est à dire “pour laquelle le déclin cognitif des individus dépasse le déclin normal et prévisible lié au vieillissement”. Un éventail qui semble très large puisqu’il concerne “22% des personnes âgées de 65 ans et plus aux Etats-Unis”. 

La difficulté est de programmer le carebot pour le comportement adéquat, les critères déterminants pour prendre les bonnes décisions. Ainsi de fortes “inquiétudes concernant un langage condescendant ou infantilisant” persistent aux yeux des chercheurs.  En outre “compte tenu des problèmes persistants liés au « problème de la boîte noire », où la logique d’un système d’IA ne peut être comprise en raison de connexions cachées entre les nœuds du réseau, il est important de mettre en œuvre des fonctions d’orientation éthique transparentes qui précisent au système ce qui constitue une ligne de conduite correcte”

On peut considérer que de telles fonctions d’orientation éthique doteraient les robots d’assistance comme Sava des critères nécessaires pour prendre des décisions dans divers cas de figure. Par exemple, s’il est essentiel de suivre les ordres des utilisateurs humains, il est tout aussi important de faire la distinction entre un intrus potentiel qui chercherait à pénétrer dans un domicile et un voisin inquiet ayant entendu une chute. Évaluer les intentions de l’utilisateur peut parfois impliquer de reconnaître le sarcasme, d’évaluer la probabilité de préjudice parmi plusieurs issues possibles et d’analyser l’action en question – par exemple, déterminer si une personne a l’intention de s’automutiler. Plus important encore, ces fonctions peuvent guider les robots dans les situations d’impasse, notamment lorsque les commandes sont contradictoires. Par exemple, il est essentiel de savoir quand il est responsable d’administrer un médicament, même si le patient ne le demande pas“.

1 – Shaun Respess, Daniel Blalock, Edgar Lobaton, et al. The promises and challenges of ethical carebots. Bioethics. 30 Mars 2026

https://bioethicstoday.org/blog/the-promises-and-challenges-for-ethical-carebots/

0 commentaire

Commenter

Your email address will not be published. Required fields are marked *

Champs obligatoires*