En Californie, un projet de loi est en discussion pour sécuriser les relations entre les “AI companions” (ami virtuel alimenté par intelligence artificielle), les mineurs et les personnes vulnérables : “le projet de loi vise spécifiquement à empêcher les chatbots compagnons (…) de s’engager dans des conversations portant sur des idées suicidaires, l’automutilation ou des contenus sexuellement explicites. Le projet de loi obligerait les plateformes à envoyer des alertes récurrentes aux utilisateurs — toutes les trois heures pour les mineurs — leur rappelant qu’ils parlent à un chatbot IA et non à une personne réelle, et qu’ils devraient faire une pause. Il établit également des exigences en matière de rapports annuels et de transparence pour les entreprises d’IA qui proposent des chatbots compagnons, notamment les principaux acteurs OpenAI, Character.AI et Replika …”. Une fois le texte voté, l’état de Californie serait le premier état des Etats-Unis “à exiger des opérateurs de chatbots IA qu’ils mettent en œuvre des protocoles de sécurité pour les compagnons IA et à tenir les entreprises légalement responsables si leurs chatbots ne respectent pas ces normes“.
Rebecca Bellan. A California bill that would regulate AI companion chatbots is close to becoming law. TedCrunch. 11 septembre 2025https://techcrunch.com/2025/09/11/a-california-bill-that-would-regulate-ai-companion-chatbots-is-close-to-becoming-law/
0 commentaire