Publicité

i-expo 2023 - Sourcing et fiabilité de l'information stratégique à l'heure du ChatGPT et des fakes news

  • i-expo-2023-veille-chatgpt-ia-generative-sourcing.jpg

    veille-sourcing-fiabilite-information-chatgpt-fake-news
    Les intervenants de la conférence I-expo "Sourcing et fiabilité de l'information stratégique à l'heure du ChatGPT et des fakes news". (Archimag/CJO)
  • La question est essentielle pour les professionnels de l'information : à l'heure de ChatGPT et autres IA génératives, peut-on continuer à faire confiance à l'information que l'on reçoit et collecte, y compris celle qui provient de sources que l'on remet peu en cause habituellement ? Cette question était débattue le mercredi 22 mars lors d'une conférence organisée sur le salon i-expo.

    "Il est presque certain que les acteurs malveillants tireront parti du contenu synthétique (y compris les deep fakes) pour des opérations de cyberinfluence et d'influence étrangère dans les 12 à 18 prochains mois". Cette citation de mars 2021 du Federal Bureau of Investigation américain (FBI), a de quoi faire peur. Pourtant, comme l'indique Christophe Deschamps, consultant et formateur en intelligence économique et en veille stratégique, la fabrication de fausses informations n'est pas nouvelle. Elle a même connu un véritable essor en 2017, qui constitue une année pivot en la matière, notamment avec l'apparition des deep fakes. 

    Les possibilités infinies des IA génératives

    "Les IA génératives sont capables de générer de fausses vidéos, de faux visages, des représentations de corps humains synthétiques complets (puppeteering), de cloner des voix, de produire de vraies/fausses images satellites, des images médicales, des jeux de données divers (synthetic data)", poursuit Christophe Deschamps. "Et bien sûr, elles sont capables de générer automatiquement des textes". Selon lui, leurs possibilités sont infinies et limitées à la seule imagination.

    Recommandations pour les professionnels de l'information

    Comment les veilleurs et les professionnels de l'information peuvent-ils se défendre ? Christophe Deschamps livre ses recommandations concernant les différents types de détection possibles, les mises en oeuvre envisageables et les outils dédiés. La détection par l'humain assisté par l'IA ayant sa préférence :

    • Détection technique :
      Mise en oeuvre : détection d'éléments spécifiques au support utilisé (métadonnées, trame de l'image, certificat de hachage, etc.)
      ex : Microsoft Video Authentificator
       
    • Détection de l'infrastructure de communication :
      Mise en oeuvre : analyser l'infrastructure utilisée pour propager les messages de la campagne (faux comptes, numéros de téléphone utilisés pour créer de faux comptes, cartes de crédit, etc.)
      ex : Algorithme de détection de comportements trompeurs CIB croisant plus de 150 critères. Par l'équipe sécurité de Facebook (Gleicher et al., 2021).
       
    • Détection par l'IA :
      Mise en oeuvre : Utiliser le machine learning pour détecter des anomalies dans des vidéos, images, textes, etc).
      ex : GAN-Scanner atteint une précision de 95 % dans l'identification des images synthétiques (Luebke, 2021) / GLTR aide à détecter si un texte a été généré à l'aide du machine learning (GPT-2, GPT-3, etc).
       
    • Détection par l'humain assisté par l'IA :
      Mêler esprit critique, factchecking et "outil" d'aide à la détection assistée par l'IA.
      ex : Solutions commerciales : Primer.ai, Sensity.ai, Deepnews.ai, Quantum Integrity, etc.

    L'Osint pour contredire ou confirmer

    Xavier Tytelman, consultant aéronautique et défense chez Air&Cosmos, spécialiste de l'Osint, insiste de son côté : "En Osint, il y a toujours la réversibilité de la preuve". En effet, il rappelle qu'il est possible en la matière de se servir des sources pour l'analyse mais aussi pour contredire ou confirmer certaines informations. Ce fut notamment le cas lors de tentatives de désinformation récentes, telle que la destruction du Moskva, le massacre de Kramatorsk, le sabotage de Nord Stream ou encore l'attaque du MH17.

    Une enquêtrice Osint sur YouTube

    De son côté, Wendy Boisnard, aka Wildeye Demon, est détective privée et enquêtrice Osint sur le web à ses heures perdues : elle diffuse ses enquêtes sur sa chaîne YouTube qui compte plus de 27 000 abonnés, auxquels elle entend prouver, grâce aux outils Osint, que ses "cibles" ne sont pas intouchables. Idriss Aberkane et Dany Conversano en ont déjà fait les frais. "J'ai suivi une formation pour l'Osint", explique-t-elle. "Utiliser les sources ouvertes et légales demande de la méthode, mais tout le monde peut essayer !". Selon Xavier Tytelman, la meilleure école pour se former est d'intégrer une communauté Osint via un thème qui nous tient à coeur et de commencer en contribuant.

    À lire sur Archimag
    Les podcasts d'Archimag
    Saison 2, Ép. 9 - Sommes-nous devenus accros aux algorithmes ? Aux recommandations de nos réseaux sociaux ou encore aux IA génératives qui se démocratisent depuis plus d'un an ? Pour répondre à cette question, nous avons rencontré Luc de Brabandère. Il se définit comme un philosophe d’entreprise, un mathématicien, un professeur, mais aussi un heureux grand-père et un Européen convaincu. Ses multiples casquettes nourrissent ses divers travaux. Luc de Brabandère est notamment l'auteur de "Petite Philosophie des algorithmes sournois", publié aux éditions Eyrolles en octobre 2023. Pour le podcast d'Archimag, il nous livre ses réflexions sur les algorithmes et revient sur son parcours atypique.
    Publicité

    Serda Formation Veille 2023