Ce que ces affaires révèlent est à la fois inquiétant et symptomatique de l’époque. En droit, une réponse fluide ne vaut rien sans source exacte, et une citation inventée ne constitue pas une approximation bénigne, mais une faute professionnelle possible. Le CNB (Conseil National des Barreaux) a d’ailleurs adopté, les 12 et 13 mars 2026, un guide sur la déontologie et l’intelligence artificielle qui replace au centre les obligations de compétence, de prudence, d’indépendance, de secret professionnel et de conformité au RGPD. En clair, l’IA peut assister, mais elle ne déplace ni la responsabilité ni le devoir de vérification.
Une promesse réelle, mais sous condition
Il serait absurde, pourtant, de réduire l’IA juridique à ses hallucinations. Dans les cabinets, directions juridiques et fonctions conformité, ces outils peuvent accélérer la revue documentaire, le tri de pièces, la comparaison de versions contractuelles, la recherche préparatoire ou la synthèse de dossiers volumineux. Le problème n’est donc pas l’usage de l’IA, mais son mauvais positionnement dans la chaîne de confiance. Un outil généraliste conçu pour répondre vite n’offre ni garantie de source, ni raisonnement traçable, ni sécurité suffisante pour absorber des données sensibles. Le CNB l’a d’ailleurs traduit en termes très concrets dans ses modèles de conventions d’honoraires révisés : aucune donnée confidentielle ne doit être transmise à un outil ne présentant pas des garanties suffisantes de confidentialité.
Le marché entre maturité et illusion
Le marché de l’IA juridique va donc se scinder avec, d’un côté, des assistants conversationnels utiles pour dégrossir, et de l’autre, des outils plus lents, plus documentés, plus auditables, capables de citer, sourcer et justifier. C’est ce second segment qui peut prétendre devenir une infrastructure de confiance. Les États-Unis montrent déjà le coût du laxisme : l’affaire Mata v. Avianca a conduit à une amende de 5 000 dollars en 2023, et une autre affaire en 2025 a abouti à la disqualification d’avocats après de fausses citations générées par IA.
S’il est évident que l’IA est en train de transformer aussi le travail juridique, la véritable question est maintenant de savoir quels usages resteront tolérables dans un univers où la confiance repose sur la source, la preuve et la responsabilité humaine. Ce que nous ne savons pas encore, en France, c’est jusqu’où iront les sanctions disciplinaires ou judiciaires. En revanche, une chose est acquise : dans le droit, l’IA ne sera acceptée durablement qu’à condition d’être vérifiable.









