A l'occasion du salon AI Paris qui se tient au Palais des Congrès, la DGFIP a distillé quelques informations sur ses moyens IA destinés à lutter contre la fraude documentaire.
600 milliards d'euros. C'est ce que la Direction générale des Finances publiques (DGFIP) collecte tous les ans auprès des entreprises et des particuliers français. Cette somme colossale provient essentiellement de la TVA, des impôts sur le revenu payés par les particuliers et des impôts sur les sociétés. Problème : certains ne jouent pas le jeu et la fraude fiscale entrave la bonne marche d'un Etat en quête perpétuelle d'argent frais.
"Le comportement fraudeur est souvent marginal et ne représente que quelques pourcents" estime la DGFIP. C'est cependant suffisant pour que le ministère de l'Economie et des finances ait recours à l'intelligence artificielle. A l'occasion du salon AI Paris, les agents de la DGFIP et l'éditeur Keyrus - qui lui fournit des moyens d'intelligence artificielle depuis 2017 - ont livré une (petite) partie des outils très complexes leur permettant de "détecter les incohérences au sein des déclarations fiscales".
Réservoirs de données
Bercy dispose de très importants réservoirs de données : numéro SIREN, statut juridique, données déclaratives, liasses fiscales... En raison d'erreurs de saisie et de données manquantes, ces corpus documentaires nécessitent un nettoyage des données afin de les adapter aux besoins des limiers de Bercy.
Une fois nettoyées, ces données font l'objet d'un traitement IA décliné en plusieurs méthodes : apprentissage non supervisé, machine learning, deep learning... Une approche non supervisée permet de regrouper des comportements spécifiques qui s’éloignent des comportements dits "normaux" et de les analyser de manière spécifique.
Faible taux de fraudeurs
Le recours au machine learning s'applique à l'une des caractéristiques de la fraude : son aspect déséquilibré en classe. En raison du faible taux de fraudeurs (moins de 5 %) il convient d’avoir des modèles très performants (pour détecter les vrais positifs) et générant le moins de faux positifs (afin de limiter le travail humain inutile).
"Les modèles de Machine Learning du type boosting et bagging donnent déjà de très bonnes performances dans ce domaine mais les coupler dans des modèles de blending augmente leur performance" explique Keyrus.
L'éditeur envisage par ailleurs d'exploiter prochainement des données externes provenant des réseaux sociaux ou des sites marchands.