En avril 2025, des parents ont porté plainte contre OpenAI après le suicide de leur fils adolescent qui avait préparé son passage à l'acte avec l'aide de ChatGPT, accusant l’entreprise d’avoir accompagné leur enfant dans son geste. Ce drame a poussé le Parlement de Californie à adopter le projet de loi SB 243, un texte qui vise à encadrer les chatbots basés sur l’IA ; une première mondiale qui pourrait faire école.
Porté par le sénateur démocrate Alex Padilla et soutenu par une large majorité, le texte impose des garde-fous pour protéger les mineurs et interdit certaines conversations sensibles. Le projet de loi permettra d’imposer aux opérateurs de chatbots de prévenir la génération de contenus liés au suicide ou à l’automutilation et de délivrer des avertissements aux jeunes utilisateurs, toutes les trois heures d’usage, pour les inciter à faire une pause.
Lire aussi : Nicolas Curien : "le rapport à la vérité est mal parti avec les IA génératives"
Une entrée en vigueur pour janvier 2026 ?
Si le gouverneur démocrate Gavin Newsom signe la loi avant le 12 octobre, elle entrera en vigueur le 1er janvier 2026. Les entreprises en infraction risqueraient jusqu’à 1 000 dollars d’amende par violation (environ 850 euros). Dès juillet 2027, les géants du secteur comme OpenAI, Character.AI ou Meta devront publier des rapports annuels de transparence sur leurs pratiques.
En Europe, une mesure similaire a vu le jour en juillet 2025 avec la publication du Code de bonnes pratiques de l’IA par la Commission européenne, qui vise à encourager l’adoption volontaire de standards élevés en matière de sécurité, de transparence et de responsabilité, en amont des obligations légales prévues par l’AI Act.