Article réservé aux abonnés Archimag.com

Comment surveiller les biais algorithmiques des modèles d’IA ?

  • prevenir-biais-algorithmique-ia.jpg

    biais-algorithmiques-modeles-ia
    Un modèle d’IA qui ne sélectionne que des profils masculins ou féminins pour certains types de postes n’est pas biaisé. C’est le monde réel, tel qu’il se reflète dans les données d’apprentissage, qui l’est. (Choudhary88991/Freepik)
  • Ni ange ni démon, l’IA n’invente pas les biais, elle en hérite - et peut même les amplifier. Données d’entraînement, critères métier, pondérations culturelles… Ils reflètent nos choix et nos angles morts. Mais alors, comment détecter ces biais et gouverner nos modèles d’IA en assumant parfois, aussi, des biais "volontaires" ?

    mag-391bd-dossier.jpgenlightened RETROUVEZ CET ARTICLE ET PLUS ENCORE DANS NOTRE MAGAZINE : IA : les nouveaux défis de l’édition scientifique

    mail Découvrez Le Brief de l'IT, la newsletter thématique gratuite d'Archimag dédiée aux professionnels des data, de l'IT, de la digitalisation et de la transformation numérique !


    Les biais sont "en statistique, un écart entre la vraie valeur d’une variable inobservable et la valeur estimée statistiquement ou économétriquement ; en méthodologie scientifique, un biais est une erreur dans la méthode, le non-respect des règles de protocole, qui engendre des résultats erronés" (source Wikipedia). Les deux parties de cette définition nous intéressent, en matière d’intelligence artificielle. Pourtant, nous le verrons, les chiffres sont moins à blâmer que nous-mêmes.

    L’IA n’est jamais biaisée !

    Comment oser affirmer cela, alors que les risques liés aux biais algorithmiques sont chaque jour pointés du doigt ? En effet, ce n’est pas l’IA ou ses modèles qui sont biaisés. Ce serait leur attribuer une intelligence humaine qu’ils n’ont pas, alors qu’il ne s’agit que d’une machine statistique. Ce sont les données, et surtout l’être humain dont elles proviennent, qui sont biaisés : l’IA ne créera aucun biais qui n’existe pas déjà dans ses données ou dans les paramètres fixés par l’humain.

    Lire aussi : IA génératives : cas d’usage et retours d’expérience

    Si votre IA ne sélectionne que des profils masculins pour un poste de directeur financier ou que des profils féminins pour un poste de sage-femme, ce n’est pas votre modèle qui est biaisé, mais les données d’apprentissage ; ou, plus exactement, le monde réel tel qu’il est reflété dans les données. Selon une étude Valtus publiée en 2024, les femmes ne représentaient que 30 % des décisionnaires dans le monde de la finance ; une IA alimentée à partir de profils de postes ou de nominations biaisera ses recommandations à cause des données d’entrainement, et donc de notre réalité biaisée.

    L’IA reproduit et parfois amplifie la réalité du monde, aussi imparfaite soit-elle. Si vous souhaitez influer sur le futur sans simplement le reproduire, il faudra corriger ces biais. Non pas ceux des modèles, mais ceux des données d’entrainement, à défaut de corriger la réalité.

    Tout cela s’applique, bien sûr, à l’apprentissage machine, mais également à l’IA générative. L’IA générative apprend à partir de documents qu’elle ingère. Soit l’humain sélectionne manuellement les contenus importés (et identifie alors les hallucinations, biais et discriminations), soit l’IA générative ne fera que reproduire ce qu’on lui a appris. La croire « intelligente » est l’erreur la plus commune. 

    Mais l’IA est toujours biaisée !

    À votre avis, pourquoi votre IA générative préférée vous dit-elle que la terre est ronde et non plate ? Pas du tout parce qu’elle l’a analysé et démontré scientifiquement, mais parce que le consensus des documents mis à sa disposition lui indique qu’il existe, certes, un débat sur le sujet, mais que la majorité des études semble indiquer que la terre est ronde… Bien sûr, certaines sources scientifiques bénéficieront d’une pondération supplémentaire (définie manuellement), par rapport à des opinions publiées sur des blogs complotistes. 

    Mais, alors, l’IA pourrait-elle changer d’avis ? En théorie, oui. Car si le nombre et le sérieux des publications indiquant que la terre est plate augmentaient au point de dépasser ceux qui ont choisi l’option actuelle, le consensus évoluerait et les réponses de l’IA générative également. Peu de risques dans ce domaine. Mais pensez à des puissances étrangères qui chercheraient à influencer le narratif sur des sujets polémiques (frontière disputée au Sahara occidental, initiateur de la guerre Russie-Ukraine, bienfaits de certaines politiques chinoises critiquées en occident…).

    À noter d’ailleurs que nos IA génératives sont aujourd’hui biaisées par leur origine nord-américaine ou européenne. Quelle IA générative présente aujourd’hui le monde sous le prisme des cultures africaines ou latino-américaines ? Le biais, ce n’est pas quand on a raison et que l’autre à tort ! C’est quand des faits sont influencés par des éléments culturels. Or, ils le sont tous ! Et c’est à prendre en compte…

    L’IA peut-elle détecter  ses propres biais ? Comment les éviter ?

    Une IA peut détecter certains de ses biais, mais jamais tous et jamais seule. Elle est bien meilleure pour signaler des symptômes de biais que pour les comprendre ou en corriger la cause profonde.

    La détection des biais dans les données qui contaminent les modèles se réalise à trois niveaux : en analysant les données d’entrainement (la gouvernance des données), en analysant les réponses apportées par l’IA (le testing) et en faisant preuve de jugement humain. L’IA peut vous aider dans cette démarche sur les tâches suivantes : 

    • détecter des biais statistiques : une IA peut analyser ses propres sorties et repérer des écarts de performance entre groupes (faux positifs/faux négatifs), des distributions anormales et des dérives dans le temps. Ici, l’IA agit comme un outil de métrologie. Par exemple, pour un modèle de crédit qui refuse deux fois plus souvent un profil donné, pour un modèle RH dont la précision chute pour une tranche d’âge ou pour un LLM qui associe plus souvent certains métiers à un genre,
    • s’autotester via des scénarios contrôlés : on peut demander à un modèle de générer des cas synthétiques équivalents (CV identiques, sauf le prénom) ou de s’évaluer sur des jeux de tests "contrefactuels",
    • déclencher des alertes de gouvernance : dans des architectures matures, l’IA peut signaler un risque de biais, bloquer un déploiement et exiger une révision humaine de ses résultats.

    À l’inverse, l’IA sera incapable de réaliser certaines tâches :

    • identifier un biais normatif ou social : un biais n’est pas toujours mathématique. Par exemple : est-ce normal que les infirmières soient majoritairement des femmes ? Est-ce acceptable qu’un modèle de police prédictive cible un quartier précis ? Est-ce un biais… ou le reflet d’une injustice historique ? La notion de biais est politique, sociale, juridique. Aucune IA ne peut la trancher seule. La notion d’éthique est purement humaine et ne peut être confiée à une machine,
    • détecter un biais qu’elle partage avec ses données : les données sont biaisées, à l’image des objectifs métier et des critères de performance… Alors, l’IA est dans une boucle fermée : "je suis cohérente avec un monde déjà biaisé". L’IA sera, par exemple, incapable de deviner qu’il lui manque des données et calculera à partir des données fournies,
    • être indépendante tout en étant juge et partie : une IA qui s’auto-audite totalement, c’est comme une entreprise qui s’auto-certifie, un algorithme qui s’auto-déclare conforme ou un étudiant qui se met sa propre note.

    Lire aussi : Comment nourrir l’IA avec de bonnes data ?

    Mais ce problème peut être contourné en utilisant plusieurs IA : une qui calcule et l’autre qui juge, en alternance. À retenir : une IA peut détecter qu’elle discrimine, mais elle ne peut pas décider si cette discrimination est juste, légale ou acceptable. L’IA devient un capteur des possibles biais et discriminations. Mais l’analyse des détections est confiée à l’humain. La démarche se décompose donc en trois étapes :

    • détection automatisée (par l’IA),
    • interprétation humaine (data, juridique, métier, éthique),
    • tout cela dans un cadre de gouvernance de l’IA explicite : politiques de biais acceptables/inacceptables, traçabilité des arbitrages, responsabilités claires.

    Introduire des biais volontaires

    Pour compléter ce panorama, ajoutons juste un mot sur les biais volontaires. Parfois, la société ou la culture constatent que notre fonctionnement est biaisé et qu’il ne correspond pas aux valeurs qu’elle souhaite promouvoir. Il faut alors corriger la réalité en introduisant des biais volontaires. Prenons l’exemple de l’assurance dommages dans l’automobile : mesdames, c’est un fait, vous avez moins d’accidents que vous, messieurs.

    La logique assurantielle voudrait donc que les femmes paient une prime d’assurance inférieure à celle des hommes. Ce serait mathématiquement juste, mais éthiquement discutable, car nous nous efforçons de traiter les hommes et les femmes de manière équitable. Il faudrait donc créer un biais volontaire, c’est-à-dire supprimer le paramètre homme/femme, afin que le calcul soit le même, quel que soit le genre. Les femmes paieront un peu plus, les hommes un peu moins. Ce biais volontaire faussera, en partie, les calculs par rapport à la réalité, mais cela pourrait être l’objectif recherché. 

    À lire sur Archimag
    Les podcasts d'Archimag
    Êtes-vous prêt pour la réforme de la facturation électronique ? À moins de 460 jours du grand lancement, l’écosystème se prépare activement. Lors de la Journée de la Facturation Électronique qui s'est tenue le 13 mai dernier à Paris, Archimag Podcast est allé à la rencontre des acteurs incontournables de cette réforme : les Plateformes de dématérialisation partenaires, ou PDP. Ensemble, nous avons parlé de leur rôle, de leurs spécificités, de leur modèle économique et de leur secret de longévité. Dans cet épisode, nous vous dévoilons qui sont ces acteurs et ce qu'ils préparent pour accompagner la réforme.