Publicité

David Chavalarias : "les plateformes sociales font courir un risque systémique aux démocraties"

  • david-chavalarias-toxic-data-gafam-reseaux-sociaux.jpg

    david-chavalarias-cnrs-toxic-data-reseaux-sociaux
    David Chavalarias est directeur de recherche au CNRS et dirige l’Institut des systèmes complexes de Paris Île-de-France. (DR)
  • Directeur de recherche au CNRS, David Chavalarias dirige également l’Institut des systèmes complexes de Paris Île-de-France. Il est l’auteur de « Toxic Data », paru en mars 2022 chez Flammarion.

    mail Découvrez toutes les newsletters thématiques gratuites d'Archimag dédiées aux professionnels de la transformation numérique, des bibliothèques, des archives, de la veille et de la documentation.

    Comment s’organise la désinformation et pourquoi les réseaux sociaux en sont un terrain favorable ?

    Sur les réseaux sociaux, les échanges sont très différents de ceux que l’on pratique « hors ligne ». On s’adresse souvent à des personnes que l’on n’a jamais vues et dont on ignore l’identité réelle, sans frontières géographiques. Dans ces espaces, on assiste à une massification des interactions et une instantanéité de la circulation de l’information.

    La plupart du temps, on ne sait pas vraiment dans quel contexte ni dans quelles conditions une information a été produite. Toutes ces caractéristiques - déspatialisation, massification et instantanéité - font des réseaux sociaux un terrain de prolifération des fausses informations.

    De plus, un groupe peut produire sur les réseaux sociaux beaucoup d’informations, ou même démultiplier ses présences (en créant de faux comptes ou en payant des entreprises pour poster un type de message) et influencer l’opinion. Cette tactique de propagande qui usurpe des mouvements citoyens afin de soutenir des intérêts particuliers s’appelle l’astroturfing.

    Lire aussi : Arthur Grimonpont : « Nous vivons en algocratie et ce régime n'est pas démocratique... »

    Sans compter que ces espaces numériques ne sont pas passifs, puisqu’ils organisent la circulation de l’information. C’est d’ailleurs ce sur quoi repose leur modèle économique : en fonction de ses propres intérêts financiers, une plateforme comme Facebook, Twitter ou Instagram, ne vous montrera qu’un faible pourcentage de ce que produit votre entourage. Cela constitue une couche supplémentaire de distorsion de l’information.

    Vous citez dans votre livre plusieurs chiffres issus du Politoscope. De quoi s’agit-il ?

    Le Politoscope est une initiative de l’Institut des systèmes complexes de Paris Île-de-France. Il s’agit d’un dispositif d’observation de l’espace politique numérique en ligne que l’on a développé à partir de 2016. Il vise à analyser l’ensemble des tweets produits par les militants politiques tout au long de l’année, et particulièrement durant les périodes électorales.

    Notre objectif : comprendre comment les différents groupes de militantismes politiques se forment, quels sont les rapports entre eux, et quelles sont les stratégies qu’ils déploient lors d’une campagne présidentielle ou politique. De manière générale, le Politoscope nous sert à observer comment circule l’information dans ces nouveaux espaces numériques.

    Comment les communautés se structurent-elles ?

    En ligne, nous avons tendance à nous connecter à des personnes que nous apprécions à des échelles bien plus grandes que dans la vie réelle. À cette tendance s’ajoute celle de l’homophilie, c’est-à-dire notre attirance pour des personnes similaires à nous-mêmes.

    La recommandation algorithmique achève ensuite de créer des rapports sociaux très différents de ceux de la vie réelle : par exemple, des processus d’homogénéisation mènent à ce qu’on appelle des « chambres d’écho », c’est-à-dire un ensemble d’individus densément connectés qui font circuler une information de manière assez homogène et très rapide. Ces chambres d’écho vont s’opposer les unes aux autres, polarisant et fragmentant ainsi l’opinion publique.

    En quoi les « big tech » (Google, Apple, Facebook, Amazon) menacent-elles la démocratie ?

    Selon moi, la démocratie n’est pas compatible avec le modèle économique actuel des Gafam. Parce que ces grandes plateformes, qui organisent la circulation de l’information, vendent à la fois les données des utilisateurs pour faire de la publicité ciblée, mais aussi, d’une certaine manière, l’organisation sociale.

    Pour différentes raisons, expliquées dans mon livre, elles sont incitées à augmenter leur niveau d’influence sociale, ce qui va entraîner des mouvements très forts sur des enjeux sociétaux majeurs qui seront donc ainsi facilement manipulables. Par exemple, l’extrême droite a souvent eu recours à la manipulation des algorithmes.

    Lire aussi : Lutter contre l'infobésité : il y a un Observatoire pour ça

    De leur côté, des États totalitaires vont utiliser ces environnements numériques pour déstabiliser et affaiblir le tissu social des démocraties. Comme au sein de l’Internet Research Agency, cette usine à « trolls » destinée à véhiculer la propagande pro-Poutine, des personnes sont payées à longueur de journée à travers le monde pour agir sur différents terrains numériques afin d’exacerber les tensions au sein des démocraties.

    Vous évoquez les agents conversationnels tels que ChatGPT : quelles nouvelles problématiques soulèvent-ils ?

    Les environnements numériques, et notamment les acteurs qui peuvent s’y déployer, évoluent extrêmement rapidement. Les nouvelles technologies d’intelligence artificielle comme ChatGPT peuvent générer des robots, c’est-à-dire des comptes automatisés qui seront capables d’agir comme des humains, mais avec des consignes très précises pour se comporter comme un candidat politique ou pour faire la publicité d’un produit.

    Aujourd’hui, une grande partie des messages qui sont écrits sur les réseaux sociaux, et même sur internet, le sont déjà par des robots. Le problème, c’est qu’il est de plus en plus difficile de distinguer les faux comptes pilotés par des machines.

    Dans le cadre d’une campagne de désinformation, cela peut poser des risques importants : un acteur mal intentionné pourra déployer des milliers de faux comptes qui vont se comporter comme des humains, mais qui obéiront comme des soldats pour faire passer certains messages. Cela donne encore plus de pouvoir aux stratégies de type astroturfing.

    Dans le chapitre « Comment sauver notre démocratie de l’overdose numérique », vous énumérez différentes recommandations et notamment la création d’une loi sur l’atteinte à la vie démocratique. Pensez-vous que les gouvernements pourraient aller vers ce type de législation ?

    J’ignore s’ils sont prêts à s’engager avec ce type de loi, mais ils n’auront selon moi pas le choix. Le fait qu’un acteur ayant un quasi-monopole, comme Facebook, soit autorisé à déployer n’importe quel type d’algorithme pose une vraie question juridique et les gouvernements doivent se positionner : quand on dispose d’un tel contrôle sur la circulation de l’information d’un pays, une simple erreur pourrait mener à un dysfonctionnement démocratique, voire à des émeutes.

    Lire aussi : Didier Barathon : "La fracture numérique concerne aussi certains salariés équipés d'un ordinateur"

    Cela ne peut-il pas être considéré comme un trouble à l’ordre public ? Si ces plateformes changent quelques lignes de code dans leur algorithme, cela pourrait transformer radicalement la manière de s’informer de millions de personnes et de citoyens. Elles font courir un risque systémique aux démocraties et cela nécessite donc une législation appropriée.

    Sommes-nous déjà à un stade avancé de l’overdose ou existe-t-il un moyen de s’en sortir ?

    Je pense qu’il est possible de remédier à ces risques, mais il faut agir vite. C’est aussi pour cette raison que j’ai écrit ce livre. Facebook représente 2,8 milliards d’utilisateurs actifs, c’est-à-dire quasiment un tiers de la population mondiale.

    Quand on voit ce qu’il se passe dans différents pays (l’élection de Trump, de Bolsonaro, le Brexit, l’arrivée des fascistes revendiqués en Italie, etc.), il y a urgence à prendre conscience de l’impact de ces plateformes.

    Bien sûr, elles n’en sont pas les seules responsables, car le contexte de crises climatique, sanitaire et économique joue un rôle non négligeable. Mais si on ne fait pas attention à ce qui se passe sur les réseaux sociaux, cela pourrait être la goutte d’eau qui fait déborder le vase.

    Dans « Toxic Data », je propose 18 pistes d’actions à la fois individuelles et institutionnelles. Par ailleurs, on peut aussi se demander pourquoi on ne pourrait pas offrir d’alternative publique gratuite au sein de ces nouveaux espaces de circulation de l’information.

    L’absence de publicité permettrait aux citoyens d’interagir sur des réseaux privés sans les dangers et les inconvénients des Gafam… Ce n’est pas une question de prix, mais plutôt une volonté politique.

    À lire sur Archimag
    Les podcasts d'Archimag
    Saison 2, Ép. 9 - Sommes-nous devenus accros aux algorithmes ? Aux recommandations de nos réseaux sociaux ou encore aux IA génératives qui se démocratisent depuis plus d'un an ? Pour répondre à cette question, nous avons rencontré Luc de Brabandère. Il se définit comme un philosophe d’entreprise, un mathématicien, un professeur, mais aussi un heureux grand-père et un Européen convaincu. Ses multiples casquettes nourrissent ses divers travaux. Luc de Brabandère est notamment l'auteur de "Petite Philosophie des algorithmes sournois", publié aux éditions Eyrolles en octobre 2023. Pour le podcast d'Archimag, il nous livre ses réflexions sur les algorithmes et revient sur son parcours atypique.
    Publicité