Article réservé aux abonnés Archimag.com

Nicolas Curien : "le rapport à la vérité est mal parti avec les IA génératives"

  • nicolas-curien-fake-news.jpg

    nicolas-curien-rapport-verite-mal-parti-intelligences-artificielles-generatives
    Nicolas Curien, professeur émérite au Cnam et membre fondateur de l’Académie des technologies. (DR)
  • Ingénieur-économiste et professeur émérite au Cnam, Nicolas Curien est un ancien membre du Collège de l’Arcep et du CSA (devenu l’Arcom). Il est également cofondateur de l’Académie des technologies, qui a publié le rapport "IA générative et la mésinformation", en décembre 2024.

    couverture_archimag_385_page-0001.jpgenlightened CET ARTICLE A INITIALEMENT ÉTÉ PUBLIÉ DANS ARCHIMAG N°385 : Bibliothèques : les tendances qui pourraient transformer leur futur

    mail Découvrez Le Brief de l'IT, la newsletter thématique gratuite d'Archimag dédiée aux professionnels des data, de l'IT, de la digitalisation et de la transformation numérique !


    Votre rapport présente différentes pathologies de l’information. Quelles sont-elles ?

    Nous avons repris la terminologie du Media Lab de Sciences Po. La structure des pathologies de l’information peut être comparée à des poupées russes : la matriochka extérieure représente la malinformation, c’est-à-dire à peu près toutes les informations que l’on consomme dans les médias, en ligne ou traditionnels, qui ne sont pas nécessairement fausses ou produites avec l’intention de nuire, mais un peu inexactes, partiales ou incomplètes.

    La poupée qui vient juste après, c’est la mésinformation, c’est-à-dire la mauvaise information qui n’est pas forcément délibérée, mais qui est carrément inexacte, parce que produite trop rapidement ou à partir d’une source non vérifiée. La troisième poupée, c’est la désinformation, produite dans l’intention de manipuler des esprits. On parle alors de fake news ou d’infox. Et enfin, à l’intérieur de la désinformation, on peut distinguer les deep fake (hyper trucages), c’est-à-dire de la désinformation fabriquée à l’aide de l’intelligence artificielle (IA) générative.

    Lire aussi : La médiation en mode IA, les bibliothécaires investissent ce nouveau terrain

    Quelles sont les capacités et les limites de l’IA générative ?

    L’IA n’est pas très intelligente au sens où nous l’entendons. Les grands modèles de langage (LLMs) ont été entraînés à faire une tâche extrêmement simple : produire une séquence de mots à partir de ceux qui viennent les plus vraisemblablement après les premiers. Mais si les résultats de ChatGPT, Copilot et consorts sont étonnants, c’est parce qu’ils compensent la simplicité de cette tâche par l’énormité des données qu’ils ont ingurgitée. Le miracle, c’est le big data.

    Mais, contrairement à l’esprit humain, la machine n’a pas de capacité de création autonome, n’a pas conscience de ce qu’elle fait et n’a ni sentiments ni émotions. L’IA a ses domaines d’excellence et l’intelligence humaine a les siens.

    Lire aussi : Les promesses de l'IA agentique : entre automatisation et efficacité professionnelle

    Les IA génératives amplifient-elles la désinformation ?

    Elles permettent de gagner en efficacité, quel que soit le but. Si l’objectif est d’optimiser l’organisation du travail, les IA génératives le feront bien, mais si le but est de manipuler les esprits, elles le feront très bien aussi. Le diable n’est pas dans l’outil, il est dans l’usage qu’on en fait.

    Par exemple, on a tendance à considérer l’IA générative comme un moteur de recherche sur lequel il suffit de cliquer, mais nous sommes en réalité responsables de la qualité de la rédaction du prompt qui déterminera en grande partie la qualité du résultat. À travers le prompt, nous sommes tous devenus des programmeurs en langage naturel et la salubrité de l’espace numérique dépend de notre art à maîtriser ces nouveaux outils numériques.

    Dès le départ, le rapport à la vérité est de toute façon mal parti avec les IA génératives : "by design", elles font semblant d’être capables de réaliser ce que produit l’intelligence humaine. Sans compter que l’IA générative ne connaît pas les choses, et ne peut donc pas établir de rapport entre les mots et les choses : elle ne sait pas ce qu’est une table, elle ne s’y est jamais assise. Comment pourrait-elle savoir ce qu’est la vérité, qui est la conformité d’un discours à un fait, si elle ne connaît pas les faits ?

    Enfin, l’IA générative reproduit les biais de ses programmeurs, ceux des bases de données sur lesquelles elle a été entraînée et les biais éventuels des processus d’apprentissage sur lesquels elle s’est exercée.

    Quelles sont les différentes préconisations de l’Académie des technologies pour contrer les effets de l’IA générative sur la mésinformation ?

    Lorsque nous avons élaboré ce rapport, quatre grands domaines se sont imposés à nous comme se prêtant le mieux ou se prêtant déjà à des initiatives pour protéger l’espace informationnel : l’éducation, la recherche, les médias et la sécurité. Nous avons ensuite élaboré six propositions qui s’inscrivent chacune dans l’un ou l’autre de ces domaines.

    La première d’entre elles consisterait à faire émerger un outil collaboratif d’IA générative vertueuse, baptisé ChatPedia, au sein de l’Éducation nationale. Coutilisé et coamélioré par les professeurs et les élèves, cet outil serait modelé progressivement pour devenir, pour les LLM, ce que Wikipédia est à l’encyclopédie ordinaire.

    Lire aussi : Désinformation, pluralisme, algorithmes… Les pistes de réflexion des États généraux de l'information 

    Vous préconisez également la création d’un socle statistique du numérique et de ses impacts ?

    En effet, nous n’avons pas assez de données sur l’impact des vérités alternatives sur les pratiques et les comportements des citoyens, en matière de santé publique, par exemple (les gens se vaccinent-ils plus ou moins, etc.). Nous imaginons pour cela un partenariat entre l’Insee et l’Inria.

    Troisième proposition, vous recommandez la création d’un "Comité consultatif de l’information scientifique et technique"…

    Ce type d’information est souvent traité de façon très approximative, voire biaisée, dans les médias traditionnels, et encore plus dans les médias en ligne, ce qui renforce la défiance des citoyens vis-à-vis de la science et de la technologie, ainsi qu’envers les institutions. L’idée est d’améliorer l’adéquation entre le sujet traité et l’expert mobilisé par les journalistes. L’Arcom pourrait accueillir un comité qui exercerait une mission de veille sur le traitement de l’information scientifique et technique dans les médias, formuler des recommandations et servir d’interface entre les médias et les experts en s’appuyant sur des académiques nationales (sciences, médecine, technologies, etc.).

    Vous prônez également la création d’un "Observatoire de l’édition artificielle". Quelle serait sa mission ?

    L’idée serait de tester régulièrement les LLMs et de déceler, à partir de leurs réponses, des indices de non-neutralité (biais) dans le traitement d’informations sensibles (santé, politique, etc.). Ces lignes éditoriales, intentionnelles ou non intentionnelles, induites par la nature de leurs bases de données d’entraînement et par leurs modalités d’apprentissage, seraient ensuite rendues publiques.

    Votre 5e proposition souhaite contraindre les plateformes à afficher un "score d’artificialité" des contenus viraux. De quoi s’agit-il ?

    Cette proposition, qui pourrait faire partie d’un guide de bonne conduite européen, aurait vocation, à terme, à entrer dans le Digital Services Act (DSA). Cet indicateur préciserait deux indices qui permettent de repérer un faux contenu : la probabilité selon laquelle un message a été créé par une lA générative et la probabilité qu’il ait été massivement diffusé par des chatbots.

    La 6e proposition vise à compléter le code de la Défense…

    En effet, le code de la Défense ne prévoit bizarrement pas de sanctions pénales pour la désinformation issue d’organes d’États ou d’organes étrangers. Il s’agit simplement d’une lacune à combler.

    "Pour un progrès raisonné, choisi et partagé" est la devise de l’Académie des technologies. Pouvez-vous la commenter ?

    Je trouve cette devise très belle. "Raisonné" implique de mesurer les menaces et les opportunités sans tomber dans un principe de précaution abusif ou dans la témérité. Il faut plutôt se placer dans une audace responsable. "Choisi" implique des progrès techniques qui ne soient pas réalisés en dehors de la société, mais pour elle. Il doit être non seulement acceptable, mais souhaité par le corps social. "Partagé" signifie que le progrès doit inclure tout le monde, sans laisser personne de côté.

    Selon moi, l’espace numérique doit être durable, c’est-à-dire le plus économe possible, pour que la transition numérique n’aille pas à l’encontre de la transition climatique. Et il doit être également respirable, c’est pourquoi il faut lutter à tout prix contre la pollution de ce bien commun.


    Visionnez l’intégralité de cet entretien, filmé le 17 avril dernier et animé par Clémence Jost dans le cadre d’une "Rencontre auteur" de Cairn.info, en partenariat avec Archimag et le gfii :
     

    À lire sur Archimag
    Les podcasts d'Archimag
    Êtes-vous prêt pour la réforme de la facturation électronique ? À moins de 460 jours du grand lancement, l’écosystème se prépare activement. Lors de la Journée de la Facturation Électronique qui s'est tenue le 13 mai dernier à Paris, Archimag Podcast est allé à la rencontre des acteurs incontournables de cette réforme : les Plateformes de dématérialisation partenaires, ou PDP. Ensemble, nous avons parlé de leur rôle, de leurs spécificités, de leur modèle économique et de leur secret de longévité. Dans cet épisode, nous vous dévoilons qui sont ces acteurs et ce qu'ils préparent pour accompagner la réforme.