Le Comité national pilote d’éthique du numérique, CNPEN, publie, à la suite de la mise sur le marché de ChatGPT, ses premières réflexions et préconisations pour la conception, la recherche et la gouvernance, dans un avis sur les systèmes d’AI générative (avis focalisé sur les modèles de langue). L’objectif du rapport est de contribuer à la réglementation européenne (AI Act), de responsabiliser les fabricants de modèles de fondation qui les mettent sur le marché ou qui les publient en libre accès. Les auteurs de l’avis du CNPEN mettent en particulier l’accent sur la responsabilité des concepteurs dans l’intégration de valeurs sociales et de filtres dans les systèmes : “Dans une quête de neutralité, les systèmes d’IA générative sont optimisés avec des filtres construits par les concepteurs. De plus (…) l’annotateur reçoit des instructions pour guider ses choix. Les valeurs sociales traduites dans les filtres, comme l’évitement des biais, sont donc liées aux êtres humains qui testent les systèmes ainsi qu’aux choix des concepteurs. Aujourd’hui, ce processus n’est ni transparent ni vérifié. La méthode d’évaluation adversaire par les équipes humaines, appelée red teaming, a été étendue au-delà de son domaine d’origine en cybersécurité et appliquée aux LLM. Elle désigne l’utilisation de nombreux types de sondages, de tests et d’attaques des systèmes d’IA (par exemple, par injection de prompts) afin de mettre à jour les biais ou les comportements émergents de ces modèles“.
Systèmes d’intelligence artificielle générative : enjeux d’éthique. Avis 7 du CNPEN. 30 juin 2023. https://www.ccne-ethique.fr/sites/default/files/2023-07/CNPEN-Avis7.pdf
0 commentaire