Découvrez toutes les newsletters thématiques gratuites d'Archimag dédiées aux professionnels de la transformation numérique, des bibliothèques, des archives, de la veille et de la documentation.
Temps de lecture : 10 minutes
Sommaire :
- Partie 1 - ChatGPT, un perroquet approximatif ? C’est plutôt juste…
- Partie 2 - Le chatbot, un outil comme les autres pour les documentalistes ?
- Partie 3 - L’IA pousse les veilleurs à se remettre en cause !
- Partie 4 - ChatGPT peut-il doper le SEO ?
- Partie 5 - Protection des données : le cas de ChatGPT
- Partie 6 - IA générative et cybersécurité
Partie 1 - ChatGPT, un perroquet approximatif ? C’est plutôt juste…
Le point de vue de Jean-Gabriel Ganascia, spécialiste de l’intelligence artificielle, ex-président du Comité d’éthique du CNRS et membre du conseil scientifique de l’Observatoire B2V des Mémoires.
Vous menez des recherches en intelligence artificielle depuis plusieurs décennies. Les robots conversationnels posent-ils un problème d’un point de vue éthique ?
Ils posent en effet un certain nombre de questions sur les usages qu’on peut en faire : la triche aux examens, la désinformation, les cyberattaques, les tromperies en tous genres… Ces usages sont un reflet de notre société.
Dans le monde de la recherche par exemple, les critères d’évaluation sont devenus dominants, avec notamment le concept de facteur d’impact : or, si les scientifiques recourent à ces agents conversationnels pour écrire leurs articles plutôt que de poursuivre leur quête de connaissances, cela risque de poser des problèmes.
Souvenez-vous également de la mésaventure qui est arrivée en juillet 2022 à un ingénieur de Google, Blake Lemoine, qui a été licencié pour s’être demandé publiquement si le programme de langage neuronal conversationnel LaMDA avait une âme. Alors qu’il a lui-même contribué au développement de ce programme, sa déclaration fracassante lui a valu d’être renvoyé.
Lire aussi : ChatGPT et outils d'IA : vos craintes et vos espoirs pour votre métier
« ChatGPT n’est qu’un perroquet approximatif », expliquait récemment Jean-Noël Barrot, le ministre chargé du Numérique. Partagez-vous son point de vue ?
Son propos est très intéressant, car j’avais moi-même repris, l’année dernière, le concept de « perroquet stochastique » forgé par une universitaire américaine. Ce concept désigne des machines qui, avec des techniques statistiques, sont capables de reproduire nos facultés de langage, mais sans aucun sens derrière.
Le propos du ministre est donc plutôt juste, car ChatGPT répète des paroles comme un perroquet. Il peut faire illusion pendant un moment, mais il n’a aucun sens des réalités. On pourrait ajouter que ChatGPT est menteur comme un perroquet, mais cela n’est même pas vrai, car il n’a pas le sens de la réalité !
Dans un entretien que vous aviez accordé à Archimag en 2017, vous évoquiez la théorie de la singularité technologique selon laquelle la technologie progresse tellement vite qu’un jour les machines deviendront plus intelligentes que les humains. Y sommes-nous parvenus ?
