Au sommaire :
- IA génératives : mode d’emploi pour les métiers de l’information
- Rechercher et traiter l’information avec les IA
- Préparer des données pour l’IA en 5 étapes
- Comment prompter efficacement ?
- Générer des médias avec l’IA: principes et outils
- Créer son premier agent IA conversationnel en 1 heure
Voici un chiffre qui risque de refroidir l’enthousiasme lorsque l’on parle de l’intelligence artificielle générative. 45 % des réponses apportées par ChatGPT, Copilot, Gemini et Perplexity présentent au moins une faille significative. Selon une étude de l’Union européenne de radio-télévision (UER), les IA les plus en vue du moment ont de sérieux problèmes lorsqu’elles sont interrogées sur l’actualité : 20 % d’entre elles posent des problèmes d’exactitude majeurs, notamment des détails hallucinants et des informations obsolètes.
La première association professionnelle internationale de médias de service public a en effet posé trente questions d’actualité à ChatGPT, Copilot, Gemini et Perplexity. Les résultats ont de quoi faire réfléchir les veilleurs, les documentalistes et, plus largement, toutes les professions en relation avec l’information : 31 % des réponses présentent des problèmes liés aux sources avec des attributions manquantes, trompeuses ou incorrectes. Pour l’UER, ces dysfonctionnements ne sont pas des incidents isolés : "ils sont systémiques, mondiaux et multilingues, et nous pensons que cela représente un grave danger pour la confiance du public."
Lire aussi : À Rennes, un observatoire pour évaluer les effets de l'IA générative
Ces piètres résultats présentent au moins l’avantage de remettre au centre une qualité dont personne ne devrait jamais se départir : l’esprit critique. C’est d’ailleurs l’objectif de l’exposition "Intelligence artificielle", qui vient de se tenir à la Cité des sciences, à Paris. Pour le commissaire de l’exposition, Laurent Chicoineau, il s’agit ni plus ni moins "d’une invitation à développer son esprit critique, à l’entraîner et à la garder face à l’IA".
Ne céder ni à la peur, ni à l’enthousiasme naïf
Même analyse pour Laurence Devillers, chercheuse en informatique appliquée aux sciences sociales à l’Université Paris-Sorbonne, qui insiste sur la nécessité de démystifier l’IA. Elle recommande de ne céder ni à la peur ni à l’enthousiasme naïf. À ses yeux, l’IA n’est "en rien magique". Citant Blaise Pascal - l’inventeur de la machine à calculer en 1642 - elle appelle à "agir avec raison dans l’incertain" et plaide pour une posture rationnelle : ne pas confondre les capacités des machines avec une intelligence humaine ou une conscience.
Une chose est sûre, l’avènement de l’IA générative a un effet sur les entreprises, mais aussi sur les salariés. Pour les premières, il s’agit de redéfinir les fiches de poste et de prendre en compte le facteur IA, pour les seconds, il convient, certes, d’acquérir des compétences techniques, mais pas seulement. Il doivent désormais travailler avec l’IA à l’aune de l’éthique. Selon Certifopac - un organisme certificateur spécialisé dans le domaine de la formation professionnelle -, les organisations comme les salariés sont aujourd’hui tenus d’observer un certain nombre de nouvelles pratiques. Notamment d’évaluer les contenus IA sous l’angle de l’éthique, de la sécurité et de la conformité : "cette compétence ne relève pas uniquement du juriste. Chaque collaborateur impliqué dans l’usage d’une IA doit disposer de réflexes de responsabilité et d’esprit critique. Désormais, ne pas former à ces sujets peut engager la responsabilité de l’employeur."
Détecter les biais implicites
De façon très concrète, les salariés et les agents de la fonction publique sont tenus de vérifier les sources et les faits avancés afin d’écarter les hallucinations (citations inventées, données erronées, informations obsolètes…). De même, Certifopac attire l’attention sur les risques liés aux données utilisées (fuite d’informations sensibles, infraction au RGPD…) et sur le respect des droits de propriété intellectuelle, comme le plagiat involontaire ou la génération d’images à partir d’œuvres existantes. Plus délicat encore, la détection des biais implicites : représentations stéréotypées, surreprésentation et sous-représentation de certains faits, etc.
Lire aussi : Jean-Gabriel Ganascia : “l’IA ne supprime pas les métiers, mais elle en redéfinit la valeur et la place”
Autant de pratiques qui n’ont pas échappé au plus haut niveau de l’État. Les services du Premier ministre se sont récemment dotés d’une charte pour distinguer les usages autorisés des usages proscrits de l’IA. Sont ainsi permis la traduction, le résumé, la synthèse, la recherche documentaire et la correction (de documents non confidentiels). Sont, en revanche, bannis le plagiat, la prise de décision et la communication de données personnelles et/ou sensibles. "Tout travail confié sans contrôle à ces outils est à proscrire afin de garantir la pertinence et la qualité du contenu produit", avertit Matignon ; en cas de doute, "l’aval de la hiérarchie doit être obtenu sur la sensibilité des informations que l’on souhaite communiquer au système d’IA".
Développer un œil critique aiguisé
Il est intéressant de voir l’État se doter d’une telle charte. Tout comme il est significatif de constater que la presse se dote, elle aussi, de chartes d’usages de l’IA. Depuis l’avènement de ChatGPT en novembre 2022, plusieurs dizaines de titres de presse (écrite et audiovisuelle) ont jugé nécessaire de jouer la transparence à l’égard de leur public. Quasiment tous s’accordent sur l’essentiel : refus de confier la création de textes ou de photos à l’IA, engagement à ne diffuser aucun contenu qui n’a pas été examiné… mais recours autorisé pour la traduction et pour la transcription automatique de l’audio.
Le groupe Serda-Archimag a publié récemment sa propre charte. En interne, la rédaction de votre magazine a tenu à ajouter la mention suivante : "Archimag s’interdit toute production éditoriale exclusivement générée par les IA génératives. Mais la rédaction s’autorise le recours à l’IA comme outil d’assistance à la production éditoriale, non systématique, notamment pour les tâches suivantes : retranscriptions d’entretiens oraux (speech to text), traductions, synthèses et résumés de documents. La génération d’images par des IA génératives est proscrite dans l’ensemble, sauf exception qui sera systématiquement mentionnée".
Au-delà des services du Premier ministre et de la presse, les professionnels de l’information-documentation sont eux aussi invités à développer des qualités particulières. "Dans un monde où l’IA générative peut produire du contenu en quelques secondes, la pensée critique devient plus cruciale que jamais", souligne le cabinet Moov AI. "Cette compétence ne se limite plus à l’analyse traditionnelle des informations, mais s’étend à la capacité de valider et de vérifier les résultats générés par l’IA.
Les professionnels doivent développer un œil critique aiguisé pour distinguer les outputs pertinents des réponses inexactes ou biaisées." À l’évidence, il s’agit d’une qualité qui est répartie de façon inégale au sein de la population. Heureusement, les organismes de formation ont compris les besoins et multiplient les stages pour acquérir ces nouvelles compétences. Aux professionnels de l’information-documentation de s’en emparer.
Lire aussi : Qu’est-ce que l’éthique pour un professionnel de l’information ?
Des formations pour se mettre à niveau
Bonne nouvelle pour les professionnels de l’infodoc, il existe de nombreuses formations pour se former à l’IA appliquée à la veille et à la gestion de l’information :
- L’EBD (École de bibliothécaires-documentalistes) propose une formation de quatre journées : "Comprendre et piloter un projet IA, de sa conception à sa mise en œuvre en respectant la gouvernance de l’information". Son objectif : "piloter et mettre en œuvre des projets IA robustes, en s’appuyant sur une gouvernance claire, des outils concrets et une compréhension des modèles et des données." Les stagiaires étudieront les fondamentaux de l’IA (LLM, le Rag, le no-code, l’IA embarquée…) et devront concevoir un projet IA. Proposée en présentiel dans les locaux de l’EBD à Paris, cette formation est complétée par une demi-journée de tutorat personnalisé en distanciel,
- l’Enssib vise plus particulièrement les bibliothécaires qui souhaitent s’approprier l’IA et la mettre au service de leurs missions. Le contenu de cette formation passe en revue le fonctionnement des outils d’IA, leurs limites, les usages dans le milieu spécifique des bibliothèques, ainsi que les enjeux sociétaux et juridiques. La méthode pédagogique repose sur des exposés, des cas pratiques et l’étude de retours d’expérience. D’une durée d’une journée, cette formation est gratuite pour les personnels des ministères de l’Enseignement supérieur et de la Culture, et s’élève à 195 euros pour les autres professionnels,
- le CF2ID décline l’IA à destination des documentalistes, des bibliothécaires et des archivistes. Il propose, par exemple, une formation de deux jours intitulée "Optimiser la recherche documentaire et la veille avec l’intelligence artificielle". Objectifs : identifier les apports spécifiques de l’IA pour ces deux missions, et utiliser efficacement les moteurs de recherche traditionnels et les outils d’IA générative selon les types de besoins. Une attention particulière est portée sur l’éthique face aux promesses de l’IA via l’étude des biais et des hallucinations. Un atelier est consacré à la validation croisée des résultats produits par l’IA et l’enrichissement documentaire,
- Serda Compétences, autre organisme bien connu des professionnels de l’information-documentation, propose une demi-douzaine de formations qui s’adressent aussi bien aux novices qu’aux professionnels disposant déjà d’une base de connaissances : savoir prompter au quotidien, rechercher et traiter l’information scientifique avec l’IA, tirer le meilleur de ChatGPT pour gérer son cycle de veille… Les stagiaires peuvent ensuite accéder au Learning Management System Moodle du centre de formation pour communiquer avec l’équipe pédagogique après la formation.
À noter : il existe désormais une certification professionnelle "CertifIAG", inscrite au Répertoire spécifique de France Compétences (RS6891) sous le nom "Produire et réviser du contenu professionnel multimédia en utilisant les outils d’intelligence artificielle générative (IAG) de façon responsable".












