Article réservé aux abonnés Archimag.com

Camille Girard-Chanudet : "La Cour de cassation recourt à l'IA pour anonymiser les décisions de justice"

  • camille-girard-chanudet-cour-cassation-recourt-ia-pour-anonymiser-les-decisions-justice.jpg

    Camille-Girard-Chanudet-Cour-cassation-recourt-IA-pour-anonymiser-les-décisions-justice
    Camille Girard-Chanudet, chercheuse en sociologie au sein du Centre d’étude des mouvements sociaux. (DR)
  • Camille Girard-Chanudet est chercheuse en sociologie au sein du Centre d’étude des mouvements sociaux. En 2023, elle a soutenu une thèse devant l’École des hautes études en sciences sociales (EHESS) : "La justice algorithmique en chantier, sociologie du travail et des infrastructures de l’intelligence artificielle".

    enlightenedCET ARTICLE A INITIALEMENT ÉTÉ PUBLIÉ DANS ARCHIMAG N°374
    mail
     Découvrez Le Brief de l'IT, la newsletter thématique gratuite d'Archimag dédiée aux professionnels des data, de l'IT, de la digitalisation et de la transformation numérique !


    Dans quel contexte est née la mise à disposition des décisions de justice en open data ?

    Cette mise à disposition a vu le jour grâce à la loi pour une République numérique portée par Axelle Lemaire et votée en octobre 2016. Les articles 20 et 21 prévoient la mise en open data des quatre millions de décisions de justice produites chaque année par les tribunaux français.

    Lire aussi : Anonymisation et pseudonymisation au coeur de l'open data judiciaire

    Cette loi a été votée dans un contexte international qui prônait une plus grande transparence de l’action de l’administration et elle dépasse le seul cas de la justice. Sa philosophie générale est de permettre aux citoyens et aux entreprises de se saisir de ces données publiques.

    Quelle a été la réaction des éditeurs juridiques face à cette loi susceptible de réduire leur chiffre d’affaires ?

    Les éditeurs juridiques ont participé à cette réflexion dès 2016 et ont été sollicités dans le cadre du rapport Cadiet sur l’open data des décisions de justice. Certains auraient d’ailleurs souhaité jouer un rôle plus central que celui qui est le leur actuellement, et se voir confier, par exemple, le travail d’anonymisation des décisions de justice.

    Quelles sont les étapes des processus d’anonymisation des décisions de justice ?

    C’est un processus particulièrement intéressant, car les décisions de justice contiennent de nombreuses informations permettant d’identifier les personnes impliquées, mais aussi les témoins et les professionnels du droit qui rendent ces décisions.

    Afin de satisfaire aux différentes réglementations sur le respect de la vie privée (RGPD, loi Informatique et Libertés…), la mise à disposition des décisions doit passer par un processus d’occultation des éléments identifiants qui figurent dans ces décisions.

    Il s’agit d’un processus très long qui pose une première question : qui est responsable de cette occultation ?

    Après plusieurs années de débat, cette responsabilité a été confiée aux cours suprêmes, c’est-à-dire à la Cour de cassation, pour l’ordre judiciaire, et au Conseil d’État, pour l’ordre administratif.

    Lire aussi : Dossier : L’intelligence artificielle et les nouvelles technologies pour un meilleur service public

    Il a fallu ensuite mettre les mains dans le cambouis : quelles informations va-t-on occulter ? L’anonymisation des noms et des prénoms n’est généralement pas suffisante pour anonymiser une décision de justice. Il faut en effet occulter les adresses, les numéros de Sécurité sociale, les noms d’entreprise, les numéros de cadastre, les plaques d’immatriculation…

    Au moment de mon enquête, une quinzaine de catégories avait été retenue. Mais une autre question surgit : où s’arrête-t-on ? Il a fallu trouver un point d’équilibre entre respect de la vie privée et lisibilité des décisions de justice.

    Y a-t-il eu des débats, voire des querelles, autour des termes à anonymiser ?

    Au sein de la Cour de cassation, ce sont des groupes de travail rassemblant des magistrats spécialistes reconnus dans leur domaine de contentieux qui ont défini les termes à occulter.

    Cette réflexion a donné lieu à une série d’ajustements qui ont conduit à l’établissement de catégories de termes. Mais dans la pratique, ces catégories ne s’adaptent pas toujours à ce que l’on peut trouver dans une décision de justice. C’est le cas, par exemple, d’une décision portant sur une affaire relative à un cheval de course : le nom du propriétaire était bien occulté, mais une annotatrice a fait remarquer que l’on pouvait facilement retrouver ce nom en réalisant une simple recherche sur un moteur de recherche à partir du nom de son cheval de course ! Les annotatrices font la jonction entre la rigidité du cadre catégoriel et la réalité de ce qu’elles trouvent dans les décisions de justice.

    L’intelligence artificielle est-elle utilisée au cours de ces processus ?

    Oui, la décision a été prise d’utiliser un algorithme d’apprentissage automatique pour automatiser ce processus d’anonymisation. Aujourd’hui, la Cour de cassation recourt à l’intelligence artificielle (IA) pour anonymiser les décisions de justice. Mais derrière l’IA, il faut toujours rappeler que de vraies personnes contribuent à ce processus.

    Qui sont ces personnes ?

    Ce sont des annotatrices (j’en parle au féminin, car ce sont presque exclusivement des femmes) dont la mission consiste à annoter les décisions de justice pour entraîner un moteur d’apprentissage automatique à occulter les informations identifiantes. Elles sont une vingtaine d’agents de catégorie C qui occupaient auparavant des fonctions dans l’administration judiciaire, notamment au sein des services de greffe.

    Lire aussi : Loi pour sécuriser et réguler l'espace numérique (SREN) : les réserves de la Commission européenne

    Leur formation à ce poste porte essentiellement sur les outils bureautiques dédiés à l’annotation, notamment le "logiciel d’anonymisation d’une base enrichie labellisée" (Label) qui est leur principal outil de travail. Les annotatrices apprennent ensuite au fil de l’eau en discutant avec leurs collègues et en confrontant les difficultés qu’elles rencontrent dans leur pratique quotidienne.

    D’autres métiers sont impliqués dans ce processus d’anonymisation, comme les administrateurs de bases de données qui procèdent à l’harmonisation de ces bases et les magistrats qui créent les catégories. Citons également les ingénieurs et les data scientists qui convertissent les annotations en données d’apprentissage. Derrière l’IA, il y a bien des humains !

    Dans le cadre de votre thèse, vous avez rencontré les équipes de la Cour de cassation qui procèdent à l’anonymisation des décisions de justice. Comment réagissent-elles face à la montée en puissance de l’IA ?

    On voit une fracture apparaître entre les magistrats selon leur affectation. Les professionnels de terrain expriment parfois des réticences, mais moins sur l’IA en tant que telle que sur le management et le manque de moyens.

    Certains d’entre eux se plaignent par exemple de ne pas disposer d’une simple imprimante en état de fonctionnement. En revanche, il n’existe pas d’opposition de principe sur la mise à disposition des décisions de justice en open data, car les magistrats sont attachés à la transparence de la justice.

    Que sait-on de la réutilisation de ces décisions de justice mises en open data ?

    Dans le cas de la Cour de cassation, plusieurs canaux de diffusion existent, dont le moteur de recherche Judilibre qui permet d’effectuer des recherches de décision selon plusieurs critères : par date, par chambre… Bien qu’en accès libre, Judilibre s’adresse plutôt aux professionnels du droit : avocats, magistrats, étudiants en droit…

    Une autre réutilisation est destinée aux start-up de la LegalTech : elle se présente sous la forme d’une API (une interface qui permet de connecter un logiciel ou un service à un autre afin d’échanger des données et des fonctionnalités). Ces LegalTech peuvent ainsi importer les décisions de justice dans leurs propres outils. On pense notamment au concept de "justice prédictive", qui consiste en réalité à réaliser des analyses statistiques sur de grandes quantités de décisions.

    Lire aussi : Les enjeux juridiques de la collecte de données par les IA génératives

    Ces outils peuvent par exemple évaluer le montant d’une indemnisation selon le type de préjudice et le lieu où la justice a été rendue. Pour ma part, je mets des guillemets autour de cette notion de "justice prédictive".

    Il existe enfin une plateforme GitHub, créée par la Cour de cassation, dans laquelle sont déposés les codes informatiques du modèle d’apprentissage automatique et de l’interface Label. Cette plateforme s’adresse en priorité aux informaticiens.

    Toutefois, pour observer pleinement les effets de l’ouverture de l’accès aux décisions de justice, notamment en matière d’usages, il conviendra d’attendre fin 2025, date prévue pour la mise en œuvre effective de l’open data des décisions de première instance.

    À lire sur Archimag
    Les podcasts d'Archimag
    Rencontre avec Stéphane Roder, le fondateur du cabinet AI Builders, spécialisé dans le conseil en intelligence artificielle. Également professeur à l’Essec, il est aussi l’auteur de l’ouvrage "Guide pratique de l’intelligence artificielle dans l’entreprise" (Éditions Eyrolles). Pour lui, "l’intelligence artificielle apparaît comme une révolution pour l’industrie au même titre que l’a été l’électricité après la vapeur".