
RETROUVEZ CET ARTICLE ET PLUS ENCORE DANS NOTRE MAGAZINE : IA : les nouveaux défis de l’édition scientifique
Découvrez Le Brief de l'IT, la newsletter thématique gratuite d'Archimag dédiée aux professionnels des data, de l'IT, de la digitalisation et de la transformation numérique !
En 2022, vous aviez publié l’ouvrage "Data démocratie - Être un citoyen libre à l’ère du numérique". Qu’est-ce qui a changé depuis ?
"IA Démocratie" est une sorte de "Data démocratie 2.0" : un "patch de sécurité citoyen", comme si nous appliquions des correctifs face à de nouvelles menaces. À l’époque, nous parlions déjà d’IA et de la simplicité de produire des discours sur mesure, pour des campagnes électorales, par exemple, et nous appelions à réglementer très fortement son usage dans le domaine de la "Pol Tech" (les technologies appliquées au politique).
Même si la campagne de Trump a bénéficié d’algorithmes, 2024 et 2025 représentent, selon nous, les dernières années d’élections sans IA. Demain, il sera très simple de mettre en place des fermes de "bots spin doctors" (un spin doctor est un conseiller en communication et marketing politique) sur les réseaux sociaux pour convaincre une personne de changer son bulletin de vote. Ce qui change véritablement, c’est l’industrialisation et la force de frappe de la manipulation démocratique.
Quels sont les principaux dangers que l’IA peut faire peser sur la démocratie et le fonctionnement de la société ?
Grâce à leur capacité à retenir nos conversations, nos échanges et les choses que nous aimons, les IA peuvent vite devenir des confidents ou des conseillers algorithmiques. Nous assujettir à ces assistants IA, qui murmureront à nos oreilles, fait peser un risque important sur la démocratie. Plus notre relation avec ces conseillers IA se développera, plus nous perdrons en autonomie décisionnelle et plus nous briderons notre capacité à aller chercher nous-mêmes l’information.
Dans notre livre, nous abordons aussi la notion de consentement, qui peut être remis en cause rapidement lorsque celui-ci est influencé par des algorithmes. Identifier où se situe la part d’humain dans nos décisions pose question et demande un réexamen de notre relation électorale avec la machine.
Lire aussi : David Fayon : "l'information produite par les IA générative n'est pas exacte, elle est probabiliste"
Vous abordez des sujets anxiogènes (surveillance, police et justice prédictives, transformation de l’emploi, désinformation…) Pourquoi avoir choisi ces portes d’entrée ?
Quand j’étais adolescent, j’aimais bien la série "Star Trek". L’équipage faisait souvent face à un problème d’une grande ampleur et s’en sortait en faisant preuve de courage, d’intelligence et d’une forme de "solutionnisme". Avec "IA Démocratie", l’idée est justement de partir de sujets qui inquiètent la plupart des gens pour proposer des solutions ou tenter de "debunker" l’anxiété (sur quoi faut-il être vigilant, sur quoi peut-on l’être moins, etc.).
Nous avons souhaité proposer un point de vue lucide, avec des faits et des chiffres. Chaque chapitre se conclut par des actions possibles et une note d’espoir, afin de rappeler que rien n’est inéluctable. Ce sont des choix de société et, en tant que citoyens, nous en sommes la variable déterminante.
Dans votre chapitre sur la surveillance, vous décrivez le dilemme entre protection de la vie privée et intérêt général. Ces deux notions sont-elles forcément antagonistes ?
La surveillance peut être utilisée pour le bien commun, mais, sous couvert de protection, celle-ci peut basculer dans un système excessif. L’enjeu réside dans le déploiement d’une surveillance qui soit justifiée, localisée, pseudonymisée (voire anonymisée), sans reconnaissance faciale et qui soit surtout utilisée non pour "fliquer", mais pour être utile. Par exemple, pour détecter des épidémies de grippe en exploitant des données, pour surveiller certaines zones et prévenir les feux de forêt, pour observer l’état du trafic et signaler des embouteillages, etc.
Cette surveillance ne doit pas forcément être confiée au ministère de l’Intérieur. Par ailleurs, il ne faut pas oublier qu’une fois les caméras en place, d’autres yeux que ceux de l’État peuvent y accéder : une agence étrangère, des acteurs malveillants, etc. Nos "yeux" de surveillance peuvent devenir des fenêtres pour d’autres, qui n’ont pas forcément le bien commun pour objectif.
Lire aussi : Jean-Gabriel Ganascia : “l’IA ne supprime pas les métiers, mais elle en redéfinit la valeur et la place”
Les questions sur les destructions d’emplois ressemblent à celles des précédentes révolutions technologiques. Sommes-nous face aux mêmes débats ?
Une révolution technologique s’accompagne toujours de transformations au niveau de l’emploi, mais l’IA peut introduire de nouvelles questions. Aujourd’hui, cet outil est déjà très demandé dans la palette professionnelle : l’IA ne remplacera pas complètement le travail humain, mais elle sera un indispensable pour remplir une grande partie des fonctions. Et notre force résidera dans notre capacité à lui donner des instructions pour qu’elle réalise ces tâches en temps et en heure. Cela va transformer notre rapport au travail informatique : certains postes vont perdre en richesse, quand d’autres deviendront plus intéressants.
A priori, les "cols blancs" seront les premiers impactés ; avant les "cols bleus", qui le seront à leur tour quand la robotique sera suffisamment sophistiquée. Certains métiers, qui nécessitent un contact humain (instituteur, psychologue) ou qui demandent une capacité à prendre des décisions dans un univers incertain, ne se seront néanmoins jamais remplacés.
Certains imaginent une démocratie où l’IA serait au service des décisions publiques. Est-ce une piste crédible ou un renoncement ?
Des études ont montré que 20 à 30 % des Européens seraient prêts à confier une grande partie des décisions politiques à une IA, parce que cette technologie bénéficie d’un biais d’autorité et d’expertise : elle est perçue comme un outil rationnel, logique, fondé sur de la donnée "réelle", plutôt que sur des idéologies ou des préjugés, et peut être programmée pour "faire plaisir" à tout le monde.
Selon moi, le vrai danger serait que les concitoyens et électeurs, qui feraient face à une classe politique déconnectée, se tournent, à terme, vers des partis qui baseraient leur programme sur des algorithmes, comme des "présidents 4.0". Mais comment ces programmes seraient-ils fabriqués ? Par qui ? Et avec quelles données ?
De mon côté, je plaide pour une algorithmisation partielle de la décision politique, si celle-ci concerne des sujets qui ne se prêtent pas à des dogmatismes, et si elle revêt une dimension logique sur laquelle l’IA peut intervenir. En revanche, les thématiques plus idéologiques et orientées par des visions du monde fondamentalement différentes ne devraient pas être "algorithmisées".
Lire aussi : Laurent Darmon : “il est essentiel d’éviter la privatisation des données”
En fin d’ouvrage, vous proposez une série de recommandations. À qui s’adressent-elles ?
Ce livre a une visée européenne et grand public. Les recommandations concernent aussi bien les citoyens que les collectivités territoriales et les maires qui s’interrogent sur le déploiement de l’IA au service de leur commune. Elles s’adressent aussi à toutes les entreprises, qui ne doivent pas oublier de conserver l’humain au cœur de leurs enjeux, et notamment aux entreprises de la "tech", en leur donnant des pistes pour imaginer des produits au service de notre République et de l’Europe. L’idée était de proposer des actions concrètes utiles à différents profils.
Vous expliquez avoir utilisé l’intelligence artificielle pour rédiger certaines parties de l’ouvrage. Dans quel cadre l’avez-vous intégrée à votre travail d’écriture ?
Nous avons fait le choix d’une écriture hybride, puisque c’est le thème du livre. Me concernant, je me suis donné des règles éthiques : la technologie n’a rien rédigé seule et me servait juste à approfondir mes idées, comme si j’écrivais avec un coach. Le livre n’est pas le fruit d’un travail mi-homme, mi-machine, il est les deux en même temps.








