Lien copié

Confier sa santé à GPT-4 ? Approche de nouveaux usages en santé.

Share On Facebook
Share On Twitter
Share On Linkedin

Aux Etats-Unis 89% des patients recherchent en ligne des informations sur leurs symptômes avant d’aller consulter un médecin (1).  La recherche en ligne d’informations de santé et d’explications médicales, via des moteurs de recherche tels que Google est aujourd’hui courante.  Comment envisager une généralisation de ces démarches, non plus seulement via des moteurs de recherche, mais avec des chatbots équipés des nouveaux modèles de langage, ce qui reviendrait à confier sa santé à GPT-4, ou à un chatbot similaire?  Bref, des consultations de santé se feront t-elle demain avec un chatbot ? A priori, confier sa santé à une technologie d’intelligence artificielle qui n’est ni bien comprise, ni fiable, ni contrôlée ne semble pas aujourd’hui raisonnable. Mais, demain, le développement de nouvelles pratiques dans ce domaine pourraient t-elles se faire dans l’intérêt des patients et de la société ?

Appliquées au domaine de la santé, les critiques formulées à l’encontre de GPT-4 résident dans la difficulté d’apporter des réponses instantanées à des problèmes complexes, dans une confiance excessive accordée au dispositif, dans l’absence de sources (à la différence de Google) et dans l’absence d’alternatives aux solutions proposées… S’ajoutent à cela les critiques de biais et de faillibilité communes à toutes les applications de GPT-4. Une  grande prudence semble devoir s’imposer vis à vis de ces nouveaux usages en santé :  « medecine is a field with many rare disorders and complex physiology, and the utilization of ChatGPT for patient education of these disorders could pose health risk » (1) prévient Rushabh H. Doshi. 

De manière plus théorique, s’agissant du savoir médical et des connaissances scientifiques en santé, il faut garder à l’esprit qu’un diagnostic émanant d’un médecin et un diagnostic émanant d’un algorithme ne sont pas fondés de la même manière. Les démarches ne sont pas identiques : l’IA en santé repose sur des corrélations, ne recherche pas de causes et représente un nouveau et très différent modèle de production de connaissances “le modèle de production de connaissances dominant dans le monde biomédical est hypothético-déductif ; il part de l’hypothèse pour conduire un travail de réfutation, que ce soit au laboratoire ou dans la recherche épidémiologique ; le modèle des plateformes est inverse avec une collecte de données première, un croisement de sources multiples et la mise en évidence d’associations potentiellement signifiantes par la mise en œuvre de méthodes d’intelligence artificielle . Ceci remet tout d’abord en question la définition même de ce qui peut être considéré comme une donnée de santé. Ceci entraine ensuite des débats épistémologiques ardus et une question éthique consiste à pouvoir garantir la validité des traitements de données et de l’interprétation des résultats produits » (2).

Dans ce cadre,  les questions de l’explicabilité, de la responsabilité et de l’égalité d’accès paraissent être les plus urgentes à prendre en considération.    Des éléments de réflexion figurent dans l’Avis 141 du CNCE, Conseil Consultatif National d’éthique, publié en janvier (3), consacré aux enjeux éthiques du diagnostic médical via des dispositifs l’intelligence artificielle. Si même si ce document n’évoque pas spécifiquement les nouveaux modèles de langage, il établit une distinction intéressante  entre les consultations qui entrent dans le cadre d’un parcours de soin, et pour lequel le dispositif est soumis à une certification médicale (sous la compétence de l’ANSM, Agence nationale de sécurité du médicament et des produits de santé ), et les consultations de santé “à la frontière entre le bien-être, l’utilisation récréative, ou la surveillance de paramètres de santé » (3), qui ne suivent pas le parcours de certification. 

En définitive, que ce soit dans la cadre d’un parcours de soin ou en dehors de celui ci, la réflexion éthique repose sur les même bases : « en conjuguant une éthique de l’intention centrée sur le sujet, une éthique par conception centrée sur l’objet, et une éthique de la médiation centrée sur la relation sujet-objet, l’approche éthique de la conception d’un SIADM pose une pluralité de questions sur la chaîne de responsabilités (du concepteur, de l’évaluateur, du certificateur, de l’utilisateur final et plus globalement du décideur politique). L’ethics by design, par l’idée de responsabilisation des concepteurs de systèmes qu’elle développe, s’étend à la finalité d’un système impliquant par exemple le fait de favoriser des algorithmes privilégiant l’intérêt du plus grand nombre face aux intérêts minoritaires, ou encore la stricte protection des données à caractère personnel » .

 

 

 

1 – Rushabh H. Doshi, Simar S. Bajaj & Harlan M. Krumholz ChatGPT: Temptations of Progress. American Journal of Bioethics. Published on line 28 Feb 2023.

2  – Pierre Lombrail, Israël Nisand, Christine Dosquet, Frédérique Lesaulnier, Catherine Bourgain, et al.. Note d’étape sur le Health Data Hub, les entrepôts de données de santé et les questions éthiques posées par la collecte et le traitement de données de santé dites « massives ». INSERM. Janvier 2022. http://https://www.hal.inserm.fr/inserm-03533863v1

3 – AVIS COMMUN AVIS 141 CCNE / AVIS 4 CNPEN. Diagnostic Médical et Intelligence Artificielle : Enjeux Ethiques. https://www.ccne-ethique.fr/sites/default/files/2023-http://https://www.ccne-ethique.fr/sites/default/files/2023-

Les recommandations du CNCE pour la mise en oeuvre de l’IA pour le diagnostic médical  porte sur les actions suivantes : 

  • “Le contrôle de conformité d’un SIADM, qui assure qu’il n’est pas dangereux et ainsi autorise sa mise sur le marché, doit être amélioré. Il doit surtout à l’avenir être accompagné d’une évaluation de son efficacité clinique montrant, au-delà de son absence de nocivité, qu’il contribue efficacement au principe de bienfaisance ;

  •  S’assurer que, dans leur finalité, les SIADM s’inscrivent dans une logique d’amélioration continue de la qualité et de la sécurité des soins ;

  • Éviter que les SIADM ne soient positionnés dans une logique de substitution à l’intervention humaine des professionnels de santé ;

  • Introduire le contrôle humain à toutes les étapes-clés de la conception et de l’application en vie réelle du SIADM afin de garantir la sécurité et le respect des droits fondamentaux ;

  • Faciliter l’explicabilité des résultats obtenus par des SIADM afin que les médecins soient en mesure de donner un sens clinique aux résultats issus du numérique ;

  • Informer le patient lorsqu’un professionnel de la santé a recours à un SIADM et recueillir son consentement ;

  • Encourager la recherche afin d’améliorer les processus de validation de l’intérêt clinique et de conformité des SIADM, et établir leur rapport bénéfice-risque ;

  • L’utilisation des SIADM dans les démarches de prévention est encore débutante (ex. campagnes de dépistage du cancer), mais leur développement doit être anticipé“.

0 commentaire

Commenter

Your email address will not be published. Required fields are marked *

Champs obligatoires*