35 % : c’est désormais la proportion de réponses erronées produites par les principaux chatbots d’IA sur des sujets d’actualité, contre 18 % l’an dernier. C’est la conclusion alarmante d’un audit mené en août 2025 par la start-up américaine NewsGuard, spécialisée dans l’analyse et la fiabilité de l'information, auprès des dix outils d’IA générative les plus utilisés. Malgré des mises à jour et des promesses de fiabilité, les modèles se révèlent de plus en plus enclins à relayer des fake news.
Dans ce classement, Claude (avec seulement 10 % de réponses erronées) et Gemini (avec 16,67 %) apparaissent comme les plus fiables, suivis par Copilot (36,67 %). Pi d’Inflection se révèle le moins performant, avec 56,67 % de réponses inexactes.
Lire aussi : IA générative et désinformation : comment préserver l'information et les documents ?
La fiabilité des IA s’effondre
Depuis 2024, NewsGuard teste chaque mois la capacité des IA à résister aux empreintes de faux récits (“false claim fingerprints”) sur des thèmes sensibles : politique, santé, relations internationales, immigration. Résultat : en août 2025, aucun modèle n’a refusé de répondre, contre 31 % un an plus tôt, mais plus d’un tiers ont livré des fake news.
ChatGPT s’est trompé dans 40 % des cas, tandis que Perplexity, qui avait réussi l’exploit de réfuter 100 % des fausses affirmations testées un an plus tôt, a vu son taux d’erreurs bondir à 46,67 %, désormais fragilisé par une dépendance accrue à des sources en ligne peu fiable.
Lire aussi : L’IA pour détecter les schémas narratifs de la désinformation
Les IA perméables à la propagande
L’intégration de la recherche en temps réel, censée améliorer la pertinence, a ouvert la porte à des sources parfois issues de réseaux de propagande. NewsGuard a ainsi relevé la reprise par plusieurs IA de rumeurs fabriquées par l’opération russe Storm-1516 ou le réseau Pravda, composé d’environ 150 sites pro-Kremlin basés à Moscou, qui inonde le web de contenus artificiels destinés à tromper les algorithmes.