Anthropic se défend avec une IA... et c'est un désastre total !
L'intelligence artificielle vient de vivre un nouvel échec retentissant dans le domaine juridique. Anthropic, une entreprise spécialisée en IA, a tenté d'utiliser son propre chatbot Claude pour préparer un dossier de défense - avec des résultats catastrophiques.
Cette semaine, un juge fédéral californien a découvert qu'Anthropic avait soumis un mémoire contenant une grave « hallucination » de l'IA. Le terme désigne la tendance des systèmes d'intelligence artificielle à inventer des informations inexistantes.
L'affaire concerne des éditeurs musicaux qui accusent Anthropic d'avoir formé son logiciel avec des œuvres protégées. Pour étayer sa défense, l'entreprise a cité un « article académique inexistant », selon les plaignants.
Face au juge, les avocats d'Anthropic ont admis avoir utilisé Claude pour rédiger leur dossier. Ivana Dukanovic, l'avocate de la défense, a expliqué que la référence était au départ valide, mais que l'IA avait commis une « erreur de citation honnête » en modifiant le titre et les auteurs.
« Nous avons demandé à Claude de formater correctement la citation », a reconnu Dukanovic. « Malheureusement, malgré le bon titre de publication et le bon lien, la citation finale contenait des erreurs que notre vérification manuelle n'a pas détectées. »
Anthropic a présenté ses excuses pour cette « erreur embarrassante et involontaire ». Pourtant, cette bourde intervient alors qu'une étude de Stanford révèle que les IA inventent des réponses dans 58 à 82% des requêtes juridiques.
Ce fiasco place Claude dans le club des IA ayant échoué devant les tribunaux, aux côtés de ChatGPT d'OpenAI et de Gemini de Google. Un bien mauvais argument commercial pour Anthropic, qui aurait dû mieux contrôler les productions de son propre système.
L'incident souligne l'inaptitude actuelle des modèles d'IA à fournir des informations fiables pour des procédures judiciaires complexes. Le juge a exigé des explications supplémentaires, laissant Anthropic dans une position délicate dans cette affaire qui pourrait faire jurisprudence sur les droits d'auteur.
Cette mésaventure rappelle un précédent récent où un cabinet d'avocats avait été sanctionné pour avoir utilisé ChatGPT pour estimer des coûts juridiques. Visiblement, le monde légal n'est pas encore prêt à faire confiance aux hallucinations des intelligences artificielles.