
RETROUVEZ CET ARTICLE ET PLUS ENCORE DANS NOTRE MAGAZINE : Quel futur pour le stockage de données ?
Découvrez Le Brief de l'IT, la newsletter thématique gratuite d'Archimag dédiée aux professionnels des data, de l'IT, de la digitalisation et de la transformation numérique !
En quoi l’IA diffère-t-elle de l’intelligence humaine ?
Il existe un malentendu : l’intelligence artificielle (IA) fait peur, parce que certains pensent qu’elle consiste à doter les machines d’un esprit. Or, ce n’est pas le cas : l’IA ne "pense" pas, elle reproduit simplement certaines facultés mentales humaines pour mieux les comprendre et les simuler.
Le mot "intelligence" est d’ailleurs polysémique : il peut désigner l’esprit, l’ingéniosité, le traitement de l’information, ou - au sens scientifique introduit à la fin du XIXᵉ siècle - l’ensemble des facultés mentales (mémoire, raisonnement, perception, apprentissage…).
Au XXᵉ siècle, des chercheurs ont voulu étudier scientifiquement l’esprit en reproduisant les différentes facultés mentales dont il se constitue (perception, mémoire, raisonnement…) sur des ordinateurs. Ces simulations de la perception, de la mémoire ou du raisonnement se retrouvent ensuite dans toutes nos technologies. Il y a cependant une différence de nature profonde entre intelligence humaine et intelligence artificielle, pas seulement de degré.
Lire aussi : "Le Cesin défend une approche pragmatique de la souveraineté numérique"
Quels sont, selon vous, les domaines dans lesquels les apports de l’IA sont les plus prometteurs ?
Les avancées les plus impressionnantes concernent à mes yeux les sciences, car l’IA augmente notre capacité à comprendre des phénomènes qui nous étaient jusque-là inaccessibles. Par exemple, le prix Nobel de chimie a récemment récompensé trois chercheurs en informatique pour AlphaFold, un programme capable de prédire le repliement des protéines, ces "usines du vivant" dont la forme détermine la fonction. Ce que les biologistes tentent depuis des décennies pour concevoir de nouvelles protéines, des médicaments innovants ou des tissus biologiques pourrait devenir possible grâce à l’IA.
En médecine, l’IA aide déjà au diagnostic, mais elle permet aussi de créer de nouvelles molécules (drug design). En mathématiques, certains programmes formulent des conjectures ou vérifient des démonstrations. Dans les sciences sociales, la transcription et l’analyse automatisées d’entretiens ouvrent la voie à des études de plus grande ampleur.
Enfin, dans le champ des humanités numériques, j’ai travaillé avec l’Institut des textes et manuscrits modernes (Item), de l’École normale supérieure, sur la "génétique textuelle" : l’IA permet d’analyser les brouillons des auteurs pour comprendre la construction progressive d’un texte et visualiser les différentes strates d’écriture et de sens.
L’IA va-t-elle supprimer des emplois, voire des métiers ?
Rappelons que cette crainte n’est pas nouvelle, car des métiers ont été bouleversés à chaque révolution technologique. En ce qui concerne l’automatisation, les données montrent que le nombre d’emplois n’a pas vraiment décru depuis les années 80 et que les pays les plus robotisés sont aussi ceux où le chômage est le plus faible. Car ce sont surtout des tâches, qui s’automatisent, et rares sont les métiers monotâches. L’automatisation peut également créer de nouveaux besoins - et donc de nouveaux métiers -, mais oblige néanmoins à savoir utiliser ces outils (faute de quoi on devient vulnérable).
Si la relation entre IA et emploi est donc loin d’être simple, les impacts sociaux, eux, sont bien réels : les traducteurs, par exemple, voient leur rôle évoluer. On ne leur demande plus toujours de traduire, mais de relire des textes produits par la machine, pour moins cher. Comme l’écrivait déjà Paul Valéry en 1931 ("Regards sur le monde actuel et autres essais", Paul Valéry, 1931), la technologie peut changer le rang des personnes : l’IA ne supprime pas forcément les métiers, mais elle en redéfinit profondément la valeur et la place.
Lire aussi : Enrico Panaï : “l’éthique de l’IA peut être un moteur majeur pour l’innovation”
Comment intégrer l’IA dans l’éducation sans nuire à l’apprentissage ?
Nous sommes encore démunis face à l’impact de l’IA générative dans l’éducation. Les adolescents l’utilisent massivement, c’est pourquoi il est illusoire de vouloir l’interdire. Les enseignants, eux, se retrouvent désarmés, car ils ne savent plus qui ils corrigent. Il faudra sans doute revenir à plus d’évaluations en classe, dans des conditions qui limitent l’usage de ces outils.
Mais la question est plus profonde et interroge le sens de l’éducation elle-même : quand des étudiants utilisent ChatGPT pour rendre une copie, c’est peut-être le symptôme d’un système où le diplôme et la réussite comptent plus que le savoir et le goût d’apprendre pour soi.
Et dans le domaine artistique, les IA génératives risquent-elles de nuire à la création ?
Aujourd’hui, n’importe qui peut produire une mauvaise image ou un texte médiocre grâce à l’IA, mais cela ne fait pas de lui un artiste. En revanche, je suis convaincu que de nouveaux créateurs sauront s’emparer de ces technologies comme des outils pour inventer de véritables gestes artistiques.
Avec l’IA, ce n’est plus la présence de l’artiste derrière un trait de pinceau qui nous émeut, mais le vertige face à la génération potentiellement infinie d’œuvres. De là peuvent naître, à mon avis, de nouvelles formes d’art, à condition que celles-ci soient portées par une intention et une maîtrise.
Qu’est-ce qu’une IA dite "digne de confiance" ?
J’ai une formation de philosophe et je m’intéresse, entre autres, aux questions éthiques depuis longtemps. Dans le contexte actuel, il me semble justement essentiel d’accompagner la transformation numérique et l’essor de l’IA d’une véritable réflexion éthique. Or, on confond souvent éthique et réglementation : l’éthique ne consiste pas simplement en des lois ni en un simple code de bonnes pratiques, même si l’Union européenne a voulu, avec son groupe d’experts de haut niveau, définir les principes d’une IA "digne de confiance". Ce cadre repose sur trois plans (juridique, éthique et technique), lesquels, à mon sens, ne sont pas séparables.
Le principe sur lequel se fondent ces notions s’est inspiré en partie de la bioéthique, ce qui, là encore, ne me semble pas pertinent. Le fameux "consentement éclairé", par exemple, a du mal à exister dans le numérique : qui lit vraiment les conditions générales d’utilisation ?
De même, on a rajouté les principes de bienfaisance et de non-malfaisance. Clairs pour un médecin, ils sont plus flous pour les technologies de l’information : une innovation apparemment bénéfique peut s’avérer nocive avec le temps (comme les réseaux sociaux, d’abord perçus comme émancipateurs). De façon plus générale, on essaye d’anticiper les risques, alors que, dans ce domaine, la technologie nous surprend sans cesse : le risque est justement toujours en avance sur la règle.
Lire aussi : Nicolas Curien : "le rapport à la vérité est mal parti avec les IA génératives"
Quel est le plus grand danger que l’IA représente pour la société ?
Le principal danger est politique, car l’IA peut devenir un outil redoutable de surveillance. Dans les régimes autoritaires, elle renforce le pouvoir des dictateurs en permettant de suivre chaque citoyen à la trace. Mais dans nos démocraties aussi, l’IA transforme insidieusement la vie publique. Les grands acteurs du numérique profilent les individus selon leurs recherches et comportements pour leur fournir des contenus toujours plus personnalisés.
Ce "confort" informationnel fragmente la société : chacun reçoit une réalité différente, un fil d’actualité sur mesure, sans contradiction. Or, la démocratie suppose un espace commun, une culture du débat et du désaccord. Si nous ne partageons plus les mêmes informations, nous ne pourrons plus délibérer ensemble dans l’intérêt de tous.
Selon vous, les garde-fous actuels sont-ils suffisants ?
C’est bien là mon inquiétude : des garde-fous existent, mais leur application reste incertaine. Si les réglementations européennes sont nécessaires, celles-ci risquent d’être si contraignantes qu’elles pourraient freiner l’innovation locale pendant que les géants américains et chinois, mieux soutenus politiquement, nous imposeront leurs produits.
L’ensemble de la population doit avoir conscience de ces enjeux majeurs, car le risque est double : une dépendance technologique accrue et une fragilisation de notre souveraineté numérique, qui nous garantit la maîtrise collective de nos outils et données. Il s’agit selon moi d’un enjeu de conscience et de projet commun, à l’échelle nationale comme européenne.










