Alors que l'IA Act, toujours en discussion, a été validé par le Parlement européen en juin, la France, les Etats-Unis, ainsi que 16 autres pays ont signé un accord international pour aider les entreprises à développer des systèmes d'intelligence artificielle (IA) sécurisés. Les recommandations du “Guidelines for secure AI system development” ont été élaborées par le National Cyber Security Centre (NCSC) du Royaume-Uni, et la Cybersecurity and Infrastructure Security Agency (CISA) des États-Unis afin de rappeler l'importance de considérer la question de la sécurité comme une exigence fondamentale du cycle de vie de ces systèmes, qui doit être posée en amont de leur développement.
Ce texte vise à pousser les entreprises à créer des dispositifs d’IA “sécurisés dès leur conception”. Du côté des pays signataires, une entente mutuelle vise à assurer la surveillance des systèmes d’IA contre les abus, la protection des données contre la falsification, ou encore le contrôle des fournisseurs de logiciels.
“Ces lignes directrices marquent une étape importante dans l’élaboration d’une compréhension commune véritablement mondiale des cyberrisques et des stratégies d’atténuation autour de l’IA afin de garantir que la sécurité n’est pas un post-scriptum du développement mais une exigence fondamentale tout au long”, a déclaré Lindy Cameron, directrice générale du NCSC.
Quelques zones d’ombres
Le texte semble négliger certains sujets pourtant essentiels. En effet, l’accord n’aborde pas les questions complexes sur la manière dont sont collectées et traitées les données par les LLM, la question du droit d'auteur ou encore les applications et utilisations éthiques de l’IA.
Néanmoins, ces questionnements pourraient trouver leur réponse en Europe avec l'arrivée de l’IA Act. Actuellement toujours en discussion entre les États membres, cette loi devrait voir le jour d’ici la fin de l’année d’après les objectifs de l’Union Européenne.