RETROUVEZ CET ARTICLE ET PLUS ENCORE DANS NOTRE MAGAZINE : CONSTRUIRE ET ENTRETENIR SON STORYTELLING AVEC LES ARCHIVES
Découvrez Le Brief de l'IT, la newsletter thématique gratuite d'Archimag dédiée aux professionnels des data, de l'IT, de la digitalisation et de la transformation numérique !
Vous avez forcément entendu parler du Règlement sur l’intelligence artificielle (RIA ou AI Act), publié en mars 2024, et qui a commencé à entrer en vigueur cette année. « Entendu parler », mais pas forcément "lu"… ? Vous êtes pardonnés : le texte, rédigé par des juristes, compte 144 pages et reste un bel exemple de production bureaucratique !
Consciente de l’imperméabilité de ce texte, qui s’applique pourtant à toute entreprise qui envisage d’utiliser l’intelligence artificielle (IA) en Europe, la Commission européenne a travaillé, début 2025, avec la collaboration de plusieurs centaines de professionnels européens, à la rédaction d’un Code de bonnes pratiques de l’IA à usage général. Celui-ci a été publié le 10 juillet 2025.
Le premier chapitre, sur la transparence, propose un modèle de formulaire en trois pages, qui permet aux fournisseurs de modèles de documenter facilement les informations nécessaires pour se conformer à l’obligation imposée par la législation sur l’IA afin de garantir une transparence suffisante.
Lire aussi : RGPD, AI Act, Data Act : l’Europe consulte sur la simplification des règlements numériques
Le deuxième chapitre résume en quatre pages les obligations qui concernent le droit d’auteur et son respect de la législation européenne. Enfin, le troisième et dernier chapitre, axé sur la sûreté et la sécurité, "décrit des pratiques concrètes de pointe pour gérer les risques systémiques, c’est-à-dire les risques des modèles les plus avancés. Les fournisseurs peuvent s’appuyer sur ce chapitre pour se conformer aux obligations prévues par la législation sur l’IA pour les fournisseurs de modèles d’IA à usage général présentant un risque systémique". Plus long et plus complexe (40 pages), celui-ci s’adresse essentiellement aux directions des risques et de l’informatique.
En passant du Règlement général au Code de bonnes pratiques, on réduit donc l’effort d’analyse de 144 à une soixantaine de pages. Ce qui constitue déjà un progrès important qui permet à tous les acteurs concernés de prendre connaissance des bases de la réglementation.
Déjà une trentaine de signataires
Mais ce Code de bonnes pratiques permet aussi aux entreprises qui le signent de réduire leur charge administrative. "Le code est un outil volontaire permettant aux fournisseurs de modèles d’IAGP de démontrer le respect de la législation sur l’IA", explique la Commission européenne. "Les fournisseurs de modèles d’IA qui le signent volontairement peuvent montrer qu’ils respectent la législation sur l’IA en adhérant au code. Cela réduira leur charge administrative et leur donnera plus de sécurité juridique que s’ils prouvaient leur conformité par d’autres méthodes".
Lire aussi : Matignon publie une charte pour une utilisation raisonnée de l’intelligence artificielle générative
Et, début septembre 2025, ils étaient déjà une trentaine à l’avoir signé, dont de grands fournisseurs comme Microsoft, Google, IBM, OpenAI, Mistral AI, Amazon, Anthropic, etc. Par cette signature, ils se sont donc engagés à le respecter. Petite anecdote, xAI, l’entreprise d’IA créée par Elon Musk, n’a signé que le troisième chapitre sur la sécurité, ne souhaitant donc pas s’engager directement sur les aspects de transparence et de copyright… Chacun analysera cette position comme il le souhaite.
Ce Code des bonnes pratiques ne remplace pas le Règlement général sur l’IA, mais il permet d’avancer vers sa conformité, de manière pratique plus que juridique. Aucune sanction légale n’est prévue pour les entreprises qui ne le signeraient pas : le texte de loi reste le Règlement général. C’est un instrument de conformité entériné par la Commission européenne, et reconnu pour attester la conformité aux articles 53/55 du RIA.
Philippe Nieuwbourg