CET ARTICLE A INITIALEMENT ÉTÉ PUBLIÉ DANS ARCHIMAG N°386
Découvrez Le Brief de l'IT, la newsletter thématique gratuite d'Archimag dédiée aux professionnels des data, de l'IT, de la digitalisation et de la transformation numérique !
Pourquoi avoir choisi le format du dialogue, et plus particulièrement avec votre fils, pour parler de l’éthique de l’intelligence artificielle (IA) ?
Tout est parti en effet d’une discussion avec mon fils, qui termine ses années de lycée, et qui n’arrive pas à expliquer mon métier à ses amis. Si l’IA et l’éthique ne sont souvent pas très bien comprises, l’éthique de l’IA est une discipline encore plus abstraite pour beaucoup de personnes. J’ai choisi ce format pour être le plus pédagogue possible, car l’accessibilité est au cœur de ce livre, et parce que le dialogue fait partie de la tradition philosophique. D’ailleurs, ce dialogue avec mon fils se déroule dans le livre alors que nous préparons à manger, ce qui permet aussi de mettre en parallèle des concepts parfois un peu complexes avec des actions du quotidien.
Lire aussi : Algorithmes sournois, intelligence artificielle et pensée critique : rencontre avec Luc de Brabandère
Comment définissez-vous l’éthique ?
Le mot éthique est généralement utilisé comme un "mot parapluie", avec significations différentes, alors qu’il s’agit d’une discipline scientifique. Son objectif n’est pas de déterminer ce qui est bien ou mal. Elle vise à comprendre ce qui est préférable et acceptable dans une situation morale où une personne réalise une action (un agent) et une autre la reçoit (un récepteur).
Bien qu’elle ne soit pas quantitative, l’éthique est rigoureuse. Nous avons une approche scientifique avec des méthodes qui peuvent être vérifiées par des confrères, bien que les expériences ne puissent être répétées comme dans les sciences dures. L’éthique, comme la philosophie, répond à des questions ouvertes de façon à établir un cadre plutôt que d’apporter des solutions absolues.
En quoi l’éthique de l’IA diffère-t-elle de l’éthique des autres technologies numériques ?
De manière générale, les technologies numériques ont apporté une transformation profonde de notre société. Si les révolutions industrielles ont permis d’effectuer un travail manuel ou des tâches plus rapidement, la révolution numérique a changé notre façon de voir le monde, de le comprendre, de l’interpréter et aussi de communiquer ou encore de prendre des décisions. Différentes philosophies s’appliquent aujourd’hui pour penser ces technologies.
Suite logique de "l’environnement numérique", l’IA ne date pas d’hier, mais nous avons désormais les moyens et la puissance de calcul nécessaires pour traiter de très grandes quantités de données. Et l’éthique de l’IA est devenue très importante, car, pour la première fois, une technologie a la capacité d’agir de manière autonome.
Parlons-nous assez de l’éthique de l’IA dans les organisations ?
Le sujet de l’éthique est davantage visible que dans le passé. D’ailleurs, le terme d’éthicien de l’intelligence artificielle est devenu plus "vendeur". Mais il y a également une montée en puissance de l’"ethical whashing" (à l’image du "greenwashing", "l’ethical washing" consiste à communiquer de manière trompeuse sur ses pratiques éthiques à des fins marketing). J’ai une règle personnelle : lorsqu’une organisation en parle beaucoup, c’est souvent qu’elle n’en fait pas vraiment.
Par ailleurs, il y a une confusion avec les éthiciens professionnels et certaines personnes qui s’affichent comme tels, mais qui sont en réalité des activistes, des militants ou des défenseurs de certains principes. Ces profils ont bien sûr leur place dans le débat public, mais nous ne faisons pas la même chose. Ainsi, certaines entreprises ou institutions publiques peuvent être réticentes à l’idée d’engager des éthiciens, par crainte que ces derniers jugent leur travail au lieu de les aider à prendre une décision morale. La différence est immense, car, dans notre cas, nous ne prenons jamais de décision pour l’organisation : notre rôle est d’aller au-delà des préjugés et de proposer des solutions adaptées à leur contexte, sans parti pris ni conflits d’intérêts.
Lire aussi : Sous le capot des IA du secteur public
L’éthique a-t-elle un impact sur l’innovation des organisations ?
Bien utilisée, l’éthique de l’intelligence artificielle peut être un moteur majeur pour l’innovation. À chaque fois que nous sommes intervenus en phase de conception avec des développeurs - nous parlons d’ "ethical design" - cela a donné lieu à des discussions très intéressantes pour comprendre quelles pouvaient être les utilisations ou les impacts éthiques et moraux, ouvrant la voie à de nouvelles fonctionnalités, à de nouveaux systèmes et même à de nouveaux marchés. En revanche, faire intervenir les éthiciens à la fin d’un processus de création pour leur demander si ce qui a été fait est bien ou mal est une erreur majeure. Il vaut mieux réfléchir en amont ! Et, comme évoqué plus haut, il faut aussi s’adresser aux bonnes personnes pour avoir une réponse adaptée.
Les questions soulevées par l’éthique de l’IA sont-elles les mêmes au sein des entreprises que dans la société en général ?
Les organisations utilisent des échelles de valeurs qui leur sont propres, et, à l’exception de certaines entreprises d’État, leur objectif est de gagner de l’argent. Ainsi, différentes éthiques sont appliquées : celles des affaires, de l’écologie, des données ou encore de l’intelligence artificielle. Comme les spécialités dans la médecine, chaque discipline éthique s’applique à un champ précis. Et, en fin de compte, ces champs ont un impact sur la société de manière générale. Mais les éthiques d’une société fonctionnent différemment, de façon plus pragmatique. C’est un compromis entre différentes visions, et il n’en existe pas un seul et unique partagé. C’est pour cela que des partis politiques ont des points vus divergents de l’État. Nous parlons généralement de "macro-éthique".
Lire aussi : Comment nourrir l’IA avec de bonnes data ?
Une entreprise peut-elle durer dans le temps sans mettre en place de principes éthiques autour des technologies qu’elle conçoit ou utilise ?
Aujourd’hui, l’éthique est devenue une question de survie pour les entreprises, surtout pour celles qui veulent exploiter l’IA de manière pérenne. Lorsqu’elles ne prévoient pas de cadre clair et bien appliqué, elles s’exposent à des risques majeurs : frein à l’adoption de nouvelle technologie, à la confiance des utilisateurs ou génération de problèmes internes… Prenons l’exemple du shadow AI (Comme le shadow IT, le shadow AI désigne l’utilisation d’outils d’intelligence artificielle sans l’autorisation ou la supervision des services d’informatiques ou de la direction.) : celui-ci se développe, car certaines organisations ne proposent pas d’environnement éthique sur ce sujet, ne forment pas et n’en expliquent pas les principes et les limites.
Pour économiser du temps, les grands modèles de langage et les outils qui en découlent, comme ChatGPT ou DeepSeek, permettent de générer des textes, des projets prêts à l’emploi qui semblent applicables. Le problème vient du fait que ces projets n’ont en réalité aucune substance ! Même s’ils sont très bien formatés, avec une grammaire parfaite, les IA génératives produisent des connexions statistiques entre des mots. C’est un peu comme dans "Le Fabuleux destin d’Amélie Poulain" [Ndlr : film de Jean-Pierre Jeunet datant de 2001], où l’héroïne voit des formes d’animaux dans les nuages : nous projetons du sens là où il n’y en a pas. Or, les études le montrent : les personnes bien préparées exploitent l’IA de façon efficace. Une approche éthique proactive et structurée au sein des entreprises est un facteur clé de succès et de longévité.