Article réservé aux abonnés Archimag.com

Algorithmes sournois, intelligence artificielle et pensée critique : rencontre avec Luc de Brabandère

  • luc-de-brabandere-philosophie-algorithmes-sournois.jpg

    luc-de-brabandere-petite-philosophie-algorithmes-sournois-interview
    "Si les algorithmes en eux-mêmes ne créent pas de dépendance, leur conception en suscite néanmoins une certaine forme", explique le philosophe Luc de Brabandère. (DR)
  • Luc de Brabandère, qui se définit comme un philosophe d’entreprise, un mathématicien, un professeur, un heureux grand-père et un Européen convaincu, a de multiples casquettes qui nourrissent ses différents travaux. Il est notamment l’auteur de "Petite Philosophie des algorithmes sournois", publié aux éditions Eyrolles en octobre 2023. Retrouvez le podcast de la rencontre en fin d'article ou sur toutes les plateformes de streaming.

    enlightened CET ARTICLE A INITIALEMENT ÉTÉ PUBLIÉ DANS ARCHIMAG N°371
    mail Découvrez Le Brief de l'IT, la newsletter thématique gratuite d'Archimag dédiée aux professionnels des data, de l'IT, de la digitalisation et de la transformation numérique !


    Vous êtes à la fois ingénieur et philosophe, pouvez-vous présenter votre parcours atypique ?

    petite-philosophie-algorithmes-sournois.jpgIl y a cinquante ans, je me suis formé à Polytechnique dans un contexte qui peut sembler incroyable, avec le recul : j’ai étudié l’informatique sans ordinateur. Il n’y en avait pas, ou en tout cas pas d’accessible. Heureusement, j’ai toujours aimé les concepts, les abstractions et les théories.

    Puis, à 45 ans, j’ai repris le chemin de l’école et engagé un parcours complet en philosophie. IBM m’avait proposé d’écrire un livre sur les machines à calculer non électriques, dont j’étais collectionneur. C’est en m’intéressant à l’histoire de Blaise Pascal, l’inventeur de la toute première machine à calculer, la Pascaline, que j’ai découvert qu’il avait eu de multiples vies (théologien, écrivain, philosophe, physicien…).

    Je me suis donc plongé dans la philosophie et j’ai pris conscience de tous les sujets importants qui n’étaient pas couverts par le métier d’ingénieur.

    Aujourd’hui, je me présente comme un philosophe d’entreprise, parce que je reste un homme d’entreprise. Je ne traite que de sujets d’ordre philosophique, c’est-à-dire de ceux qui ne peuvent s’appuyer sur des nombres ou des chiffres pour être traités rigoureusement.

    Lire aussi : Paris devient le centre de recherche en intelligence artificielle de Google

    Après les mots espiègles, la transformation digitale et les raisonnements fallacieux, pourquoi vous êtes-vous intéressé aux algorithmes (Luc de Branbandère est également l’auteur de "Petite philosophie des mots espiègles" (2017), "Petite philosophie de la transformation digitale" (2019) et de "Petite philosophie des arguments fallacieux" (2021)) ?

    Si j’ai étudié les algorithmes lorsque j’étais ingénieur, j’ai l’impression que je suis monté d’un étage dans l’abstraction en faisant de la philosophie ! Mais je reste un philosophe ancré dans le monde : face à la montée en puissance des algorithmes et à l’explosion de ChatGPT, je devais m’y intéresser.

    Quelle est votre définition des algorithmes et pourquoi sont-ils sournois ?

    À mes yeux, un algorithme est une méthode qui permet d’arriver à un objectif selon un nombre d’étapes précis. Cela existe depuis des milliers d’années. D’une certaine manière, le syllogisme d’Aristote est un algorithme : "Socrate est mortel, les hommes sont mortels donc Socrate est un homme". Il constitue bien une méthode pour arriver à un but. Et avec la puissance des machines actuelles, des possibilités inédites s’offrent à nous !

    Par ailleurs, l’adjectif "sournois", c’est-à-dire qui ne se dévoile pas totalement, qualifie selon moi assez bien bien les algorithmes. Et je ne souhaitais pas, en utilisant des termes comme "pernicieux" ou autre, leur donner la moindre intention.

    Justement, est-il dangereux de prêter des intentions ou des émotions aux algorithmes ?

    En Belgique, une intelligence artificielle générative a poussé une personne au suicide (Ndlr : selon le quotidien belge La Libre, en mars 2023, un jeune homme écoanxieux s’est donné la mort après avoir échangé pendant plusieurs semaines avec Eliza, l’intelligence artificielle générative développée par la société américaine Chai Research. Le chatbot est accusé de l’avoir incité à passer à l’acte)…

    Il existe donc un réel danger associé à cette technologie. En quelque sorte, c’est aussi le problème sous-jacent du test de Turing. Les ordinateurs actuels - qui restent pourtant des machines alimentées par du courant électrique - parviennent à imiter efficacement les émotions, ce qui peut conduire à une confusion entre la véritable sensibilité et la simulation de la sensibilité.

    Lire aussi : Face aux chatbots et à l'IA, les requêtes sur les moteurs de recherche traditionnels vont baisser de 25 %

    Dans la pratique, certaines personnes remercient ChatGPT pour ses réponses, ce qui n’a à mes yeux aucun sens : je ne remercie pas mes lunettes parce qu’elles me permettent de mieux voir ! Il est donc nécessaire de rester vigilant.

    Sommes-nous devenus "addict" aux algorithmes ?

    La question de l’addiction aux algorithmes revient de manière récurrente. Selon moi, si les algorithmes en eux-mêmes ne créent pas de dépendance, leur conception en suscite néanmoins une certaine forme. Nous avons tous une propension à croire plus aisément ce que nous espérons.

    Ainsi, si un algorithme est conscient de nos croyances, il nous présentera des contenus correspondant à nos aspirations. Il y a une véritable science de la dépendance derrière cela, voire de l’addiction. C’est justement ce que dénonçait Frances Haugen, une ancienne ingénieure de Facebook devenue lanceuse d’alerte.

    Devons-nous nous inquiéter de l’opacité des algorithmes, comme ceux des réseaux sociaux et des autres grandes plateformes ?

    Aujourd’hui, nous parlons beaucoup de la protection des données et c’est une bonne chose. Mais quand bien même ces données seraient-elles parfaitement protégées, nous n’aurions fait que la moitié de chemin, parce que nous ne nous intéressons pas aux données créées par les algorithmes, qui sont capables de créer du signifiant à partir de l’insignifiant. Et ces "métadonnées" ne sont pas protégées, puisqu’elles n’existent pas en tant que telles.

    Lire aussi : ISO 42001 : une nouvelle norme internationale pour des systèmes d'IA responsables

    Le seul moyen de les appréhender est de connaître le fonctionnement de la "machine", autrement dit des algorithmes. C’est pourquoi leur construction devrait être plus transparente. Toutefois, il restera toujours des secrets : le secret professionnel, le secret des brevets… Cela fait partie du système économique dans lequel nous vivons. Tant que nous ne pourrons pas tout savoir sur les algorithmes, nous devrons donc développer notre pensée critique.

    Quelles seraient les trois questions à se poser pour aborder au mieux ce type de technologie ou d’outil ?

    Premièrement, il faut s’interroger sur les acteurs qui se cachent derrière la plateforme numérique ou encore l’intelligence artificielle : savoir qui est la source d’information et quelles sont ses intentions est primordial. Ensuite, il faut se demander comment cet outil ou cette technologie peut nous permettre de monter en compétences et d’aller plus loin ; quel que soit son métier, il existe des réponses à cette question.

    Enfin, des questions contextuelles se posent. Le fameux "coup d’État" qu’a connu OpenAI il y a quelques mois (Ndlr : après l’éviction de Sam Altman, créateur de ChatGPT) est un bon exemple du clash qui se profile entre deux mondes : d’un côté, celui d’un projet plus respectueux des gens, des choses et du monde, et de l’autre, celui du profit.

    Selon vous, quels sont les bénéfices des algorithmes, notamment ceux de l’intelligence artificielle ?

    Leurs bénéfices sont omniprésents, quel que soit notre métier : nous pouvons mieux travailler, mieux créer, ou encore dépenser moins d’énergie… Mais je pense que la relation que nous entretenons avec l’outil n’est pas nouvelle.

    Par exemple, c’est bien à l’aide d’un outil que les frères Lumière ont inventé la technique du cinéma ! Aujourd’hui, nous avons tout à portée de main pour créer des images ou des sons… Vive les artistes qui pousseront plus loin la créativité humaine à l’aide d’outils de ce type !

    Malgré tout, faut-il encadrer à l’échelle nationale et européenne l’intelligence artificielle et l’utilisation des algorithmes ?

    La réponse est oui. Toutefois, il ne faut pas se leurrer. Je ne saurais vous dire de quand date le Code de la route, mais il me semble qu’il est apparu plusieurs dizaines d’années après l’invention de la voiture ! Bien sûr, il faut légiférer, mais c’est un exercice particulièrement compliqué, car nous ne pouvons pas emprisonner les algorithmes.

    Lire aussi : IA, open source : la France et l’Allemagne vont développer ensemble des outils numériques pour leurs administrations

    De plus, je pense que les lois nationales (françaises, allemandes, belges ou autres) sont dérisoires par rapport à ce qu’il faudrait faire parce que les géants d’internet sont aussi grands qu’un pays : si le Premier ministre belge téléphone chez Google, on va lui répondre "laissez un message, on vous rappellera". Une force européenne est nécessaire.

    À lire sur Archimag
    Les podcasts d'Archimag
    Rencontre avec Stéphane Roder, le fondateur du cabinet AI Builders, spécialisé dans le conseil en intelligence artificielle. Également professeur à l’Essec, il est aussi l’auteur de l’ouvrage "Guide pratique de l’intelligence artificielle dans l’entreprise" (Éditions Eyrolles). Pour lui, "l’intelligence artificielle apparaît comme une révolution pour l’industrie au même titre que l’a été l’électricité après la vapeur".
    Publicité

    Serda Formations Data 2023