Article réservé aux abonnés Archimag.com

ChatGPT, Bard... les IA génératives vont-elles bouleverser vos métiers ?

  • chatgpt-ia-generative-changement-metiers-information.jpg

    intelligence-artificielle-chatgpt-metiers-information-veille-documentaliste-seo
    Documentaliste, veilleur, spécialiste du SEO, de la cybersécurité, du RGPD... Comment les IA génératives comme ChatGPT vont-elles influencer les métiers de l'information ? (Canva)
  • Faut-il avoir peur de ChatGPT ? Les agents conversationnels vont-ils bouleverser les métiers de l’information ? À toute évolution, son lot de questionnements, de peurs et d’enthousiasme. Comme la démocratisation d’internet, l’intelligence artificielle fait fantasmer. Mais concrètement, que peuvent apporter ces chatbots au quotidien aux professionnels de l'information ?

    mail Découvrez toutes les newsletters thématiques gratuites d'Archimag dédiées aux professionnels de la transformation numérique, des bibliothèques, des archives, de la veille et de la documentation.

    Temps de lecture : 10 minutes


    Sommaire :


    Partie 1 - ChatGPT, un perroquet approximatif ? C’est plutôt juste…

    agents_conversationnels_jean-gabriel_ganascia-intelligence-artificielleLe point de vue de Jean-Gabriel Ganascia, spécialiste de l’intelligence artificielle, ex-président du Comité d’éthique du CNRS et membre du conseil scientifique de l’Observatoire B2V des Mémoires. 

    Vous menez des recherches en intelligence artificielle depuis plusieurs décennies. Les robots conversationnels posent-ils un problème d’un point de vue éthique ?

    Ils posent en effet un certain nombre de questions sur les usages qu’on peut en faire : la triche aux examens, la désinformation, les cyberattaques, les tromperies en tous genres… Ces usages sont un reflet de notre société.

    Dans le monde de la recherche par exemple, les critères d’évaluation sont devenus dominants, avec notamment le concept de facteur d’impact : or, si les scientifiques recourent à ces agents conversationnels pour écrire leurs articles plutôt que de poursuivre leur quête de connaissances, cela risque de poser des problèmes.

    Souvenez-vous également de la mésaventure qui est arrivée en juillet 2022 à un ingénieur de Google, Blake Lemoine, qui a été licencié pour s’être demandé publiquement si le programme de langage neuronal conversationnel LaMDA avait une âme. Alors qu’il a lui-même contribué au développement de ce programme, sa déclaration fracassante lui a valu d’être renvoyé.

    Lire aussi : ChatGPT et outils d'IA : vos craintes et vos espoirs pour votre métier

    « ChatGPT n’est qu’un perroquet approximatif », expliquait récemment Jean-Noël Barrot, le ministre chargé du Numérique. Partagez-vous son point de vue ?

    Son propos est très intéressant, car j’avais moi-même repris, l’année dernière, le concept de « perroquet stochastique » forgé par une universitaire américaine. Ce concept désigne des machines qui, avec des techniques statistiques, sont capables de reproduire nos facultés de langage, mais sans aucun sens derrière.

    Le propos du ministre est donc plutôt juste, car ChatGPT répète des paroles comme un perroquet. Il peut faire illusion pendant un moment, mais il n’a aucun sens des réalités. On pourrait ajouter que ChatGPT est menteur comme un perroquet, mais cela n’est même pas vrai, car il n’a pas le sens de la réalité !

    Dans un entretien que vous aviez accordé à Archimag en 2017, vous évoquiez la théorie de la singularité technologique selon laquelle la technologie progresse tellement vite qu’un jour les machines deviendront plus intelligentes que les humains. Y sommes-nous parvenus ?

        Pas du tout, car la singularité technologique postulait qu’un jour nous pourrions transporter notre conscience sur une machine. Or les agents conversationnels n’ont que la faculté de générer du texte. Cette génération de texte est d’ailleurs réalisée avec des mécanismes assez élémentaires et sans connaissance de la langue, mais avec d’immenses bases de connaissances.

        Rappelons que le langage s’acquiert par répétition et par imprégnation, mais qu’il est décorrélé de la faculté de compréhension.

        Partie 2 - Le chatbot, un outil comme les autres pour les documentalistes ?

        Les IA génératives sont des outils de plus pour les documentalistes. C’est en tout cas ce que considère Emmanuel Barthe, documentaliste juridique. Mais les professionnels ont aussi un rôle à jouer dans l’utilisation de ces solutions au sein des organisations.

        « Nous commençons à voir émerger des offres d’emploi qui ont l’air de mélanger les capacités de recherche documentaires et les capacités de prompt (entraînement des modèles de langage pour améliorer leur capacité à créer des résultats précis et pertinents.).

        Mais sauf exception, ChatGPT sera un outil comme un autre. Là où le documentaliste peut entrer en jeu, c’est qu’il faudra clairement expliquer aux gens qu’il y a des choses qu’on peut ou qu’on ne pas faire selon le jeu de données et selon le prompt qu’on utilise. Ce type d’outils est à l’image de Google ou d’une grosse base de données externes que les entreprises vont acheter. »

        En attendant un taux d’erreur acceptable

        Côté utilisation, les agents conversationnels peuvent avoir plusieurs atouts : solution de rédaction, suggestion de pistes d’analyses sous forme de plan détaillé, analyse de risques ou d’opportunités, génération de mots-clés… Les possibilités sont multiples, mais il faut apprendre aussi à s’adresser à l’IA.

        Lire aussi : Sinequa embarque ChatGPT dans sa solution de recherche d'information

        « L’autre intérêt sera aussi d’avoir des outils formés sur des bases de données spécialisées », reprend Emmanuel Barthe. « Ce sera probablement le cas d’ici un an, et l’outil sera alors vendu dans les secteurs industriels, du droit ou encore de la finance. C’est déjà le cas aux États-Unis. »

        Cependant, pour être utilisable dans un cadre professionnel, il est nécessaire que les IA génératives baissent leur taux d’erreur. « S’il y a trop d’hallucinations, elles vont vraiment faire des dégâts », avertit Emmanuel Barthe. « En même temps, s’il y a un progrès sur les jeux de données et une baisse des erreurs, on assistera à un manque de vigilance des utilisateurs ». Tout le débat est là : combien de temps faudra-t-il pour que ces machines soient suffisamment fiables et pour que le taux d’erreur soit acceptable par les acheteurs et leurs clients ?

        Partie 3 - L’IA pousse les veilleurs à se remettre en cause !

        chatbot-intelligence-artificielle-cybersecurite.jpgLe point de vue de François Jeanne-Beylot, PDG de Troover — InMédiatic et président du Synfie (Syndicat français de l’intelligence économique).

        Quel est l’impact de l’IA sur la recherche d’information ?

        L’IA permet à ceux qui exercent un métier d’investigation de se remettre en cause et aux veilleurs de ne pas s’endormir ! Le risque est en effet de se satisfaire des résultats obtenus sans s’interroger sur la possibilité de nouvelles investigations, de nouvelles sources, d’amélioration du périmètre de recherche ou de l’utilisation de nouveaux outils.

        Nous voyons l’IA comme un moyen de reconcentrer les métiers d’investigation et de veille sur le rebond, la créativité, le traitement et l’analyse de l’information, en utilisant des outils permettant d’économiser du temps sur des tâches chronophages ou sans valeur ajoutée. Ainsi, le veilleur s’affûte et rentre dans un processus vertueux qui s’affine au lieu de se répéter.

        Quelles sont les limites de l’IA dans les processus de recherche d’information ?

        Depuis quelques années déjà, l’intelligence artificielle permet, notamment avec les robots conversationnels (chatbots), de répondre à des questions simples. Ces derniers s’améliorent au point de générer des textes de plus en plus sophistiqués. Aujourd’hui, leurs réponses sont alimentées par une base de connaissances (souvent limitée dans le temps), mais ne vont pas (encore) rechercher des réponses sur internet.

        Ils peuvent déjà se substituer à l’usage des moteurs de recherche pour ceux qui s’en servent de façon basique, à condition que la réponse soit dans son corpus. Il faudra se méfier dans un premier temps de l’obsolescence des réponses : dans le cas de ChatGPT, ses connaissances s’arrêtent en 2021.

        Comment intégrer l’IA dans la recherche d’information ?

        Sur les premières étapes d’orientation des investigations, les outils d’IA peuvent s’avérer très efficaces : la définition du périmètre (wording) et l’identification des sources (sourcing) notamment. Sur un sujet d’investigation donné, prenons par exemple les terres rares, l’utilisation d’un robot conversationnel comme ChatGPT permettra de connaître précisément les métaux concernés et ceux qui ne le sont pas, d’identifier les principales sources d’informations, les pays producteurs, etc.

        Lire aussi : ChatGPT : tsunami informationnel ou bien outil politiquement correct ?

        Ils permettent en fait de compiler un actif informationnel, de faire le point sur ce que l’on sait, avant d’aller chercher ce que l’on ne sait pas (le passif informationnel). Ils permettent surtout de gagner du temps dans ce travail de synthèse que l’on peut aussi effectuer avec d’autres outils plus chronophages, comme la consultation de bases de connaissances.

        Cela permet derrière de consacrer ce temps à l’investigation pour compléter, confirmer ou infirmer, au traitement pour qualifier, hiérarchiser et présenter et à l’analyse pour exploiter.

        Les métiers de la veille sont-ils menacés par l’IA ?

        Considérer que l’IA peut menacer les métiers de la veille et de l’Osint consiste à réduire ces métiers au simple paramétrage d’outils. Nous pensons que la valeur ajoutée de ceux qui réalisent ces métiers réside dans la création d’une méthodologie d’investigation toujours nouvelle, certes basée sur ce qui a déjà été fait dans les recherches précédentes, mais qui s’adapte aussi aux résultats trouvés.

        Cette imagination, fruit d’une réelle créativité, ne saurait être effectuée par un robot ou un algorithme qui ne font que répéter, compiler ou concaténer.

        Partie 4 - ChatGPT peut-il doper le SEO ?

        À peine lancé, ChatGPT a été pris d’assaut par les experts du SEO (optimisation pour les moteurs de recherche) qui l’ont mis à l’épreuve pour tester ses capacités. Olivier Duffez, créateur de WebRankInfo et consultant en référencement, a listé pas moins de 31 bonnes façons d’utiliser ChatGPT en SEO.

        À commencer par sa capacité à trouver les meilleures expressions afin de renforcer un texte : « ChatGPT vous trouve des idées (qui peuvent compléter, voire remplacer un outil SEO). Souvent c’est seulement un début, mais je trouve ça utile. »

        Sur le thème de la voiture électrique par exemple, l’agent conversationnel suggère une douzaine de termes à utiliser : batterie, moteur électrique, émissions de CO², consommation d’énergie…
        Autre épreuve : générer le plan d’un article.

        Lire aussi : Moratoire sur les intelligences artificielles : faut-il mettre les IA sur pause ?

        Analyser les mots-clés les plus pertinents

        « Demandez à ChatGPT une idée de plan avec les différentes parties éventuellement découpées en sous-parties. N’oubliez pas de bien préciser le but de l’article, la cible, le ton, etc. Enfin, comprenez que l’outil vous fournira une nouvelle idée de plan presque à chaque fois que vous le lui demanderez, même pour la même demande… »

        Au-delà de ces 31 conseils, Olivier Duffez liste une série de bonus offerts par l’outil : créer un message pour un réseau social, rédiger des petites annonces en fonction de données fournies en entrée, etc.

        De son côté, le formateur et consultant Guillaume Persan confirme que ChatGPT peut « analyser les mots-clés les plus pertinents et les combiner avec des extraits de contenu pour produire des articles enrichis qui sont plus susceptibles de plaire à Google et aux robots d’indexation. Il peut également créer des médias tels que des images et des vidéos à partir des données existantes, ce qui contribue à rendre le contenu plus attrayant et plus engageant. »

        Partie 5 - Protection des données : le cas de ChatGPT

        chatbot_debora_cohen-chatgpt.jpgLe point de vue de Debora Cohen, avocate en protection des données personnelles et en propriété intellectuelle et DPO externalisée.

        Que dit OpenAI, l’entreprise qui a créé ChatGPT, sur le respect de la protection des données ? L’outil est-il conforme au RGPD ?

        Lorsque nous l’interrogeons, ChatGPT nous dit qu’il respecte la vie privée des utilisateurs. Et il nous dit aussi, et c’est ce que nous retrouvons dans la politique de confidentialité rédigée par OpenAI, qu’il est respectueux du California Privacy Act.

        Un document qui se voudrait l’équivalent du RGPD en Californie, mais qui ne l’est absolument pas. Nous savons qu’il y a un transfert des données vers les États-Unis (ChatGPT le confirme aussi, si vous l’interrogez). Pour le moment, il manque beaucoup d’informations obligatoires au regard des articles 13 et 14 du RGPD — les durées de conservation, les finalités des destinataires, l’existence d’un transfert hors lieu — pour que l’outil soit conforme au règlement. Il n’a pas été créé dans ce sens.

        Lire aussi : ChatGPT : L'Italie ordonne l'arrêt du service pour non respect du RGPD

        Quelles seraient les bonnes pratiques et les évolutions vers un outil plus respectueux ?

        ChatGPT n’est pas le pire… Il y a malheureusement d’autres géants du web qui collectent un tas de données personnelles sans être conformes au RGPD. C’est un outil formidable, mais il faut garder en tête qu’il ne faut pas divulguer de données personnelles, ou encore, pire, celles d’un tiers. Open AI pourrait mettre en place une liste de mots interdits.

        Par exemple, quand ChatGPT détecterait qu’un utilisateur inscrit un nom, une adresse ou un numéro de téléphone, un disclaimer (un avis de non-responsabilité) pourrait apparaître expliquant à l’utilisateur qu’il ne peut pas indiquer ce type d’information.

        Nous pourrions aussi imaginer qu’il n’est pas nécessaire de communiquer ses données personnelles pour lancer le chat, puisque nous ne sommes pas vraiment éclairés sur leur utilisation. Cependant, nous savons bien que ces données vont être monétisées : « si c’est gratuit, c’est que vous êtes le produit ».

        Il ne manque pas grand-chose à OpenAI pour être en conformité. D’autant que ChatGPT ne collecte pas tant de données que ça tant que vous n’en divulguez pas trop sur l’outil conversationnel.

        Partie 6 - IA générative et cybersécurité

        L’évolution des intelligences artificielles ne signe pas, pour le moment, l’arrivée de nouvelles formes de cybercriminalité. Pour autant, les IA génératives peuvent être une source d’aggravation des cyberrisques.

        « La mise en ligne de ChatGPT est un véritable bouleversement qui nous a appelés à redoubler d’efforts dans notre recherche, car nous vivons dorénavant dans un monde comparable au film Blade Runner », explique Andy Patel, intelligence researcher chez WithSecure, entreprise spécialisée dans la cybersécurité et la protection de la vie privée. « Désormais, pour chaque message reçu, les utilisateurs sont en droit de se demander s’ils ont affaire à une personne ou à une IA. »

        Contenus malveillants, fake news, escroqueries, phishing… Plusieurs professionnels de la cybersécurité voient dans les générateurs de textes basés sur l’IA un facteur aggravant des cyberrisques.

        Lire aussi : Dossier : Les technologies du futur pour les pros de l'info

        « Les cybercriminels qui utiliseront ChatGPT pourront produire le texte de leurs attaques de phishing plus rapidement et automatiser l’opération pour créer des malwares simples », explique Stanislav Protassov, executive board member et cofondateur d’Acronis, entreprise spécialiste en cyberprotection. « La technologie ne permet pas encore de créer de nouveaux malwares sophistiqués. Dans son état d’avancement actuel, elle ne perturbera pas le paysage des menaces autrement que par l’intensification de la fréquence des attaques. »

        Sans vouloir transmettre de mauvaises idées aux hackers ou aux escrocs, Acronis alerte sur plusieurs utilisations malintentionnées possibles des IA génératives :

        • analyse du code source à la recherche de failles : rien de nouveau sous le soleil, mais ChatGPT peut aider des hackers inexpérimentés à gagner du temps ;
        • programmation d’exploits : Arconis estime cependant que les résultats des tests ne sont pas toujours probants ;
        • automatisation de code : ici, des hackers débutants pourront automatiser de manière plus rapide des commandes pour générer, par exemple, un script destiné à voler des mots de passe ;
        • codage de malware : si vous demandez à ChatGPT de vous coder un malware, il vous répondra qu’il n’est pas autorisé à vous aider tout en vous demandant d’observer des pratiques d’internet plus éthique. Mais selon Stanislav Protassov, l’écriture de simples macros reste possible : « ChatGPT n’apporte rien de plus que ce que propose déjà Google. Le grand public y aura simplement accès plus facilement » ;
        • ingénierie sociale par chatbots : ce type de cyberrisques (tentatives d’escroquerie par romance ou sur des réseaux professionnels comme LinkedIn) demande un minimum d’interaction. Avec des IA génératives, ces échanges pourront être automatisés. « Ils pourront paraître réalistes avec moins de 1 % d’intervention humaine, ce qui facilitera des déploiements à très grande échelle », avertit Stanislav Protassov.
        Cet article vous intéresse? Retrouvez-le en intégralité dans le magazine Archimag !
        commercialiser-archives-tabou
        Si les valeurs administratives, juridiques et patrimoniales des archives sont indiscutables, qu’en est-il de leur valeur marchande ? Les entreprises l’ont compris : valoriser leur patrimoine, voire le commercialiser, permet d’en tirer des bénéfices. Quelles sont les clés pour créer de la valeur à partir de vos archives et comment s’organise la gestion des droits ?
        Acheter ce numéro  ou  Abonnez-vous
        À lire sur Archimag
        Les podcasts d'Archimag
        Saison 2, Ép. 9 - Sommes-nous devenus accros aux algorithmes ? Aux recommandations de nos réseaux sociaux ou encore aux IA génératives qui se démocratisent depuis plus d'un an ? Pour répondre à cette question, nous avons rencontré Luc de Brabandère. Il se définit comme un philosophe d’entreprise, un mathématicien, un professeur, mais aussi un heureux grand-père et un Européen convaincu. Ses multiples casquettes nourrissent ses divers travaux. Luc de Brabandère est notamment l'auteur de "Petite Philosophie des algorithmes sournois", publié aux éditions Eyrolles en octobre 2023. Pour le podcast d'Archimag, il nous livre ses réflexions sur les algorithmes et revient sur son parcours atypique.
        Publicité

        Serda Formation Veille 2023