Hallucinations de l'IA dans les tribunaux : une base de données révèle 120 cas problématiques
Les avocats représentant Anthropic ont récemment été pris en flagrant délit d'utilisation d'une fausse attribution générée par Claude dans un témoignage d'expert. Mais ce n'est qu'un des plus de 20 cas judiciaires contenant des hallucinations de l'IA au cours du seul mois dernier, selon une nouvelle base de données créée par l'avocat et data scientist français Damien Charlotin. Et ce ne sont que ceux qui ont été découverts. En 2024, première année complète de suivi, Charlotin a recensé 36 cas. Ce nombre est passé à 48 en 2025, alors que l'année n'est qu'à moitié écoulée. La base de données, créée début mai, compte déjà 120 entrées, remontant jusqu'à juin 2023. Cette compilation met en lumière l'utilisation croissante de l'IA par les avocats pour automatiser les tâches fastidieuses de préparation des dossiers. La deuxième entrée la plus ancienne concerne l'affaire Mata contre Avianca, qui a fait les gros titres en mai 2023 lorsque le cabinet Levidow, Levidow & Oberman a été surpris en train de citer des affaires fictives générées par ChatGPT. La base recense les cas où un chatbot a produit des hallucinations, "généralement de fausses citations, mais aussi d'autres types d'arguments", précise le site. Cela inclut notamment des références à des affaires antérieures inexistantes, souvent utilisées pour établir un précédent juridique. Elle ne couvre pas l'usage de l'IA générative dans d'autres aspects des documents juridiques. "L'univers des affaires avec contenu halluciné est donc nécessairement plus large (et je pense beaucoup plus large)", a déclaré Charlotin dans un email à Mashable. "En général, je pense simplement que le domaine juridique est un terrain propice aux hallucinations générées par l'IA : c'est un domaine basé sur des masses de textes et d'arguments, où l'IA générative peut prendre une place importante ; les citations suivent des schémas, et les LLM adorent ça", a-t-il ajouté. La disponibilité généralisée de l'IA générative a considérablement facilité la production de texte, automatisant des recherches et rédactions qui pourraient prendre des heures voire des jours. Mais d'une certaine manière, a souligné Charlotin, les citations erronées ou mal interprétées servant de base à un argument juridique ne sont pas nouvelles. "Copier-coller des citations d'affaires précédentes, jusqu'à ce qu'elles n'aient plus grand-chose à voir avec l'affaire d'origine, a longtemps été une pratique courante dans la profession", a-t-il expliqué. La différence, selon Charlotin, est que ces citations copiées-collées faisaient au moins référence à des décisions judiciaires réelles. Les hallucinations introduites par l'IA générative renvoient à des affaires qui n'ont jamais existé. Les juges et les avocats adverses sont censés vérifier les citations dans le cadre de leurs responsabilités respectives. Mais cela inclut désormais la détection des hallucinations de l'IA. L'augmentation des hallucinations découvertes pourrait s'expliquer par la disponibilité accrue des LLM, mais aussi par une "prise de conscience accrue du problème par toutes les parties concernées", a déclaré Charlotin. En fin de compte, s'appuyer sur ChatGPT, Claude ou d'autres chatbots pour citer des précédents juridiques s'avère lourd de conséquences. Les sanctions pour ceux qui déposent des documents contenant des hallucinations incluent des amendes, des avertissements formels, voire le rejet des affaires. Cela dit, Charlotin a noté que les sanctions ont été "légères" jusqu'à présent et que les tribunaux ont mis "la responsabilité sur les parties de bien se comporter", puisque l'obligation de vérifier les citations reste la même. "J'ai l'impression qu'il y a un certain embarras de la part de tous les concernés."