Lien copié

ChatGPT : pour une responsabilisation des chercheurs et des industriels (CNPEN).

Share On Facebook
Share On Twitter
Share On Linkedin
L’analyse anthropologique des technologies depuis le XIXe siècle montre la tendance de faire sens de ces transformations, au moins initialement, en termes d’oppositions binaires entre révolution et catastrophe, ou encore entre salut et apocalypse. S’y inscrit l’ambition actuelle des dirigeants des entreprises comme OpenAI ou Google de créer une « intelligence artificielle générale » qui serait comparable, ou même supérieure, à l’intelligence humaine. En propageant de tels discours, les concepteurs de ChatGPT nourrissent simultanément craintes et espoirs, en esquivant les enjeux concrets au profit d’un horizon inatteignable mais toujours fascinant. Ce discours polarisé leur sert également à prendre une position de force dans les débats politiques internationaux sur la réglementation de l’IA générative“.

Le Comité national pilote d’éthique du numérique, CNPEN, publie, à la suite de la mise sur le marché de ChatGPT,  ses premières réflexions et préconisations pour la conception, la recherche et la gouvernance, dans un avis sur les systèmes d’AI générative (avis focalisé sur les modèles de langue). L’objectif du rapport est de contribuer à la réglementation européenne (AI Act), de responsabiliser les fabricants de modèles de fondation qui les mettent sur le marché ou qui les publient en libre accès. Les auteurs de l’avis du CNPEN mettent en particulier l’accent sur la responsabilité des concepteurs dans l’intégration de  valeurs sociales et de filtres dans les systèmes : “Dans une quête de neutralité, les systèmes d’IA générative sont optimisés avec des filtres construits par les concepteurs. De plus (…) l’annotateur reçoit des instructions pour guider ses choix. Les valeurs sociales traduites dans les filtres, comme l’évitement des biais, sont donc liées aux êtres humains qui testent les systèmes ainsi qu’aux choix des concepteurs. Aujourd’hui, ce processus n’est ni transparent ni vérifié. La méthode d’évaluation adversaire par les équipes humaines, appelée red teaming, a été étendue au-delà de son domaine d’origine en cybersécurité et appliquée aux LLM. Elle désigne l’utilisation de nombreux types de sondages, de tests et d’attaques des systèmes d’IA (par exemple, par injection de prompts) afin de mettre à jour les biais ou les comportements émergents de ces modèles“.

 

Systèmes d’intelligence artificielle générative : enjeux d’éthique. Avis 7 du CNPEN. 30 juin 2023. https://www.ccne-ethique.fr/sites/default/files/2023-07/CNPEN-Avis7.pdf

 

0 commentaire

Commenter

Your email address will not be published. Required fields are marked *

Champs obligatoires*