Article réservé aux abonnés Archimag.com

Arthur Grimonpont : « Nous vivons en algocratie et ce régime n'est pas démocratique... »

  • arthur-grimonpont-algocratie-transition-ecologique.jpg

    algocratie-arthur-grimonpont
    Arthur Grimonpont, auteur du livre Algocratie aux Éditions Actes Sud. (Léa Bonnet)
  • Arthur Grimonpont est ingénieur et consultant spécialisé dans les enjeux de transition face aux crises écologiques. Il est également l’auteur de l’ouvrage Algocratie, Vivre libre à l’heure des algorithmes (Éditions Actes Sud).

    mail Découvrez toutes les newsletters thématiques gratuites d'Archimag dédiées aux professionnels de la transformation numérique, des bibliothèques, des archives, de la veille et de la documentation.

    Votre ouvrage s’ouvre sur un constat : jamais l’humanité n’a atteint un tel niveau d’interconnexion et jamais l’information n’a autant circulé. Sommes-nous pour autant mieux éduqués et mieux informés aujourd’hui qu’auparavant ?

    C’est tout le paradoxe que je tente d’expliquer dans ce livre ! Il existe en effet un écart considérable entre notre faculté à accumuler des connaissances, notamment dans le domaine scientifique, et notre capacité à diffuser ces connaissances afin de nous assurer un destin heureux.

    Le volume d’informations n’a jamais été aussi important qu’aujourd’hui. Pour autant, depuis le début du XXIe siècle, tout se passe comme si on n’avait jamais été aussi stupides collectivement : généralisation de la désinformation, émiettement idéologique et politique… Nous fonçons comme un troupeau aveugle vers le mur écologique.

    Comment en sommes-nous arrivés là ?

    Une partie importante de l’explication tient à ce que l’on appelle « l’économie de l’attention », c’est-à-dire la façon dont se propagent les connaissances.

    Les réseaux sociaux recourent à des algorithmes de recommandation pour sélectionner l’information qui sera diffusée à plusieurs milliards de personnes. Comment fonctionnent-ils ?

    Les principaux réseaux sociaux peuvent avoir des apparences distinctes, mais ils partagent exactement la même logique de profit : construire une audience gigantesque de milliards d’utilisateurs, capter leur attention et la convertir en revenus publicitaires. Cela signifie que les plus grandes capitalisations boursières de la planète sont en train de se construire sur une ressource rare, limitée, mais immatérielle : notre temps d’attention.

    Cette compétition pour accaparer notre attention s’appelle « l’économie de l’attention ». Sur YouTube, par exemple, l’équivalent de 120 000 ans de vidéos est visionné quotidiennement ! Sur ce total, les trois quarts sont issus d’une recommandation de YouTube.

    Cette recommandation repose sur une technologie principale : des algorithmes qui sélectionnent parmi les milliards de contenus disponibles celui qui, à un instant T, a le plus de chance de retenir l’attention de l’utilisateur. Pour comprendre ce fonctionnement, on peut imaginer un monde où un bibliothécaire unique déciderait arbitrairement des livres à conseiller à chaque humain sur Terre.

    Lire aussi : Alerte sur l’impact environnemental du numérique

    Les algorithmes sont-ils en mesure de déjouer nos biais cognitifs (biais de confirmation, biais de surestimation de soi…) ou, au contraire, de les conforter ?

    Les algorithmes ne sont pas conçus pour déjouer nos biais cognitifs. Ils sont conçus pour capter notre attention, le plus souvent au détriment de nos intentions. Exploiter nos biais cognitifs est une très bonne façon de capter notre attention !

    Par exemple, les algorithmes de recommandation renforcent notre biais de confirmation, cette tendance que nous avons à rechercher et à préférer les informations qui confirment notre croyance initiale.

    On connaît l’expression : « nous croyons que ce que nous voyons », mais l’expression devient sur les réseaux sociaux : « nous voyons que ce que nous croyons ! ». Nous nous laissons enfermer dans des bulles informationnelles dans lesquelles nous n’accédons plus qu’à un angle de vue très partiel et partial sur le monde qui nous entoure. À l’échelle de la société, notre socle de valeurs et de croyances communes s’érode.

    Les réseaux sociaux ne se contentent pas de nous enfermer dans des bulles informationnelles, ils nous attirent vers de nouveaux sujets sur lesquels nous avons la possibilité de développer une vision radicale : la radicalité est un gage du temps que nous allons passer sur les réseaux sociaux.

    Existe-t-il une hygiène informationnelle face à cet enfermement cognitif ?

    Il est bien sûr possible d’agir à l’échelle individuelle, mais le plus important se joue à l’échelle collective. À l’échelle de la société, les réseaux sociaux véhiculent une telle quantité de désinformation et d’informations clivantes qu’ils corrompent la vie démocratique et polarisent nos sociétés.

    Sur Twitter, le faux se propage six fois plus vite que le vrai. Pour chaque mot d’indignation supplémentaire que contient un tweet, celui-ci a 20 % de chances de plus d’être retweeté.

    Faut-il réguler les plateformes et quelle forme doit prendre cette régulation ?

    Il est fondamental de réguler ces plateformes, car on ne peut pas corriger leurs effets sur la société en s’en protégeant seul dans son coin. Je signale au passage que l’addiction aux réseaux sociaux n’est pas un dégât collatéral, mais bien le premier objectif de ces plateformes.

    Le patron de Netflix a ainsi déclaré : « Nous sommes en compétition avec le sommeil. […] Et nous sommes en train de gagner. » Quant aux réseaux sociaux alternatifs, ils ne sont pas concurrentiels dans l’économie de l’attention, car ils ne sont pas conçus pour l’être.

    Lire aussi : L'hyperconnexion est-elle un risque pour les salariés (et pour les entreprises) ?

    Une régulation efficace devrait s’attaquer au cœur du problème en interdisant le modèle publicitaire, et en obligeant les plateformes à basculer sur un modèle par abonnement. Mais comme le montre l’exemple de Netflix, ce n’est pas suffisant.

    Il faut considérer les plateformes sociales comme des places publiques numériques. Il faut subordonner les intérêts privés qui régissent leur fonctionnement à un intérêt collectif de long terme. Cela peut passer par exemple par la possibilité de demander aux utilisateurs plutôt qu’aux algorithmes quelles sont les informations d’utilité publique qu’il conviendrait de recommander.

    Les États sont-ils encore en mesure d’imposer leur vue aux géants du numérique ?

    Oui, ils sont en mesure de le faire et ils le font. L’Europe a pris de l’avance sur ces questions avec le RGPD qui va dans le bon sens, même si ce règlement n’est pas suffisant.

    L’Europe est également à l’origine de deux règlements importants : l’un porte sur le marché numérique et vise à empêcher les pratiques anticoncurrentielles, l’autre sur les services numériques qui a pour objectif de rendre illégal dans le monde virtuel ce qui est illégal dans le monde réel.

    Ces règlements seront cependant difficiles à appliquer. Il faut aller bien plus loin pour mettre ces plateformes au pas et subordonner leurs intérêts privés à l’intérêt collectif. C’est une urgence démocratique.

    Vous évoquez une situation « d’infoguerre mondiale ». Qui sont les acteurs de cette guerre informationnelle et comment se battent-ils ?

    Les États réagissent à l’économie de l’attention de deux façons. Le « monde occidental » régule peu, voire pas, les réseaux sociaux alors que la Chine les encadre très strictement. Le Parti communiste chinois les utilise abondamment pour diffuser sa propagande et sa vision stratégique.

    Lire aussi : Camille Alloing : "Le levier émotionnel est survalorisé par les réseaux sociaux"

    Selon une étude de l’Institut de recherche stratégique de l’École militaire, la Chine emploierait 20 millions de personnes, dont deux millions à temps plein, pour produire et diffuser une information favorable à ses intérêts sur les réseaux sociaux à l’intérieur et à l’extérieur de ses frontières.

    À l’inverse, les démocraties occidentales laissent des intérêts privés saper leur vie démocratique et affaiblir leur cohésion interne. Pas seulement à cause de manipulations volontaires, comme celle de Cambridge Analytica en 2016. En réalité, le simple fonctionnement de l’algorithme de YouTube a très nettement joué en faveur de Donald Trump, puisqu’il tendait à favoriser très nettement les messages outranciers et clivants.

    Vivons-nous dans un régime « algo-démocratique » ?

    Non, nous vivons dans une « algocratie », c’est-à-dire un régime dans lequel des algorithmes influencent directement les décisions publiques et la vie politique de la société. Mais ce régime n’est pas démocratique, car les algorithmes servent des intérêts privés et opèrent sans le moindre mandat démocratique.

    Pour ma part, j’appelle de mes vœux une « algo-démocratie » pour remplacer l’économie de l’attention par une démocratie de l’information.

    Cet article vous intéresse? Retrouvez-le en intégralité dans le magazine Archimag !
    technologies-futur-pros-info
    Quand on sait à quel point les évolutions des technologies de l’information et du numérique sont étroitement liées à leurs usages, à leurs appropriations par les utilisateurs et à leurs dimensions fonctionnelles, ces dix prochaines années s’annoncent palpitantes!
    Acheter ce numéro  ou  Abonnez-vous
    À lire sur Archimag
    Les podcasts d'Archimag
    Pour cet épisode spécial Documation, nous nous sommes penchés sur une autre grande tendance de l'année 2024 : la cybersécurité, et plus particulièrement la sécurité dans le domaine de la gestion des données. La protection des données contre les menaces internes et externes est non seulement cruciale pour garantir la confidentialité, l'intégrité et la disponibilité des données, mais aussi pour maintenir la confiance des clients. Julien Baudry, directeur du développement chez Doxallia, Christophe Bastard, directeur marketing chez Efalia, et Olivier Rajzman, directeur commercial de DocuWare France, nous apportent leurs éclairages sur le sujet.
    Publicité