Anthropic se défend avec une IA... et c'est un désastre total !

Anthropic Tried to Defend Itself With AI and It Backfired Horribly

Anthropic se défend avec une IA... et c'est un désastre total !

L'intelligence artificielle vient de vivre un nouvel échec retentissant dans le domaine juridique. Anthropic, une entreprise spécialisée en IA, a tenté d'utiliser son propre chatbot Claude pour préparer un dossier de défense - avec des résultats catastrophiques.

Cette semaine, un juge fédéral californien a découvert qu'Anthropic avait soumis un mémoire contenant une grave « hallucination » de l'IA. Le terme désigne la tendance des systèmes d'intelligence artificielle à inventer des informations inexistantes.

L'affaire concerne des éditeurs musicaux qui accusent Anthropic d'avoir formé son logiciel avec des œuvres protégées. Pour étayer sa défense, l'entreprise a cité un « article académique inexistant », selon les plaignants.

Face au juge, les avocats d'Anthropic ont admis avoir utilisé Claude pour rédiger leur dossier. Ivana Dukanovic, l'avocate de la défense, a expliqué que la référence était au départ valide, mais que l'IA avait commis une « erreur de citation honnête » en modifiant le titre et les auteurs.

« Nous avons demandé à Claude de formater correctement la citation », a reconnu Dukanovic. « Malheureusement, malgré le bon titre de publication et le bon lien, la citation finale contenait des erreurs que notre vérification manuelle n'a pas détectées. »

Anthropic a présenté ses excuses pour cette « erreur embarrassante et involontaire ». Pourtant, cette bourde intervient alors qu'une étude de Stanford révèle que les IA inventent des réponses dans 58 à 82% des requêtes juridiques.

Ce fiasco place Claude dans le club des IA ayant échoué devant les tribunaux, aux côtés de ChatGPT d'OpenAI et de Gemini de Google. Un bien mauvais argument commercial pour Anthropic, qui aurait dû mieux contrôler les productions de son propre système.

L'incident souligne l'inaptitude actuelle des modèles d'IA à fournir des informations fiables pour des procédures judiciaires complexes. Le juge a exigé des explications supplémentaires, laissant Anthropic dans une position délicate dans cette affaire qui pourrait faire jurisprudence sur les droits d'auteur.

Cette mésaventure rappelle un précédent récent où un cabinet d'avocats avait été sanctionné pour avoir utilisé ChatGPT pour estimer des coûts juridiques. Visiblement, le monde légal n'est pas encore prêt à faire confiance aux hallucinations des intelligences artificielles.

Thảm họa AI: Công ty Anthropic tự đào hố khi dùng trí tuệ nhân tạo để tự bào chữa

Sự cố gây sốc của Anthropic khi sử dụng AI chatbot Claude trong hồ sơ pháp lý đã làm dấy lên nghi ngờ về độ tin cậy của trí tuệ nhân tạo trong lĩnh vực pháp luật. Công ty này hiện đang đối mặt với vụ kiện liên quan đến việc đào tạo phần mềm bằng âm nhạc có bản quyền.

Tuần này, một thẩm phán liên bang tại California đã phẫn nộ khi phát hiện hồ sơ của Anthropic chứa thông tin 'ảo' do AI tạo ra. Các nhà xuất bản âm nhạc kiện Anthropic cho biết công ty đã viện dẫn một 'bài báo học thuật không tồn tại' để củng cố lập luận của mình.

Đáng ngạc nhiên, thay vì phủ nhận, Anthropic thừa nhận đã sử dụng chính chatbot Claude của họ để soạn thảo hồ sơ pháp lý. Luật sư bào chữa Ivana Dukanovic giải thích rằng Claude đã mắc lỗi trích dẫn 'thành thật' chứ không phải cố ý bịa đặt thẩm quyền.

Theo lời thú nhận của Dukanovic, mặc dù Claude cung cấp đúng tên tạp chí, năm xuất bản và đường dẫn, nhưng lại đưa ra tiêu đề và tác giả không chính xác. Công ty xin lỗi vì sai sót này, gọi đó là 'một lỗi đáng xấu hổ và không cố ý'.

Vụ việc này đặt dấu hỏi lớn về quy trình kiểm tra nội bộ của Anthropic, đặc biệt khi liên quan đến vụ kiện bản quyền quan trọng. Đáng lý ra, với tư cách là công ty AI, họ phải có biện pháp kiểm duyệt chặt chẽ hơn đối với hệ thống AI nội bộ.

Claude giờ đây gia nhập danh sách những thất bại AI đáng xấu hổ trong tòa án, cùng với ChatGPT của OpenAI và Gemini của Google. Sự việc củng cố nhận định rằng hiện chưa có mô hình AI nào đủ tin cậy để sử dụng trong các vụ án pháp lý.

Nghiên cứu từ Đại học Stanford cho thấy AI bịa đặt thông tin trong 58-82% truy vấn pháp lý. Tỷ lệ đáng kinh ngạc này cho thấy sự nguy hiểm tiềm ẩn khi sử dụng AI trong lĩnh vực đòi hỏi độ chính xác cao như pháp luật.

Vụ việc xảy ra trong bối cảnh ngày càng nhiều trường hợp sử dụng AI gây tranh cãi trong ngành luật, từ việc doanh nhân công nghệ làm chứng qua avatar AI đến việc luật sư nộp hồ sơ chứa đầy thông tin ảo. Đây là hồi chuông cảnh tỉnh về giới hạn hiện tại của công nghệ AI.