Un cabinet d'avocats épinglé pour des citations fictives supprime discrètement un article encourageant l'utilisation de l'IA

Law Firm Tagged Over Fake Citations Quietly Deletes Blog Post Encouraging Lawyers To Use AI

Un cabinet d'avocats épinglé pour des citations fictives supprime discrètement un article encourageant l'utilisation de l'IA

Le 16 mai, le cabinet Butler Snow a reçu une ordonnance de justification d'un juge fédéral de l'Alabama. Le cabinet, représentant un responsable pénitentiaire accusé de ne pas avoir protégé un détenu poignardé à 20 reprises, avait inclus dans un dossier des citations juridiques apparemment fictives. Le juge a déclaré avoir cherché en vain ces références. Butler Snow a rapidement répondu en admettant qu'un avocat avait utilisé ChatGPT pour générer des citations non vérifiées, une décision qualifiée de "hors des normes conventionnelles".

La veille de cet incident, le cabinet avait publié un article intitulé "L'intelligence artificielle : suis-je à la traîne ? Ai-je raté le train ?", encourageant les avocats à adopter l'IA avec prudence. L'article, désormais inaccessible (erreur 404), conseillait de commencer modestement et de toujours vérifier les résultats de l'IA, citant même l'exemple d'avocats sanctionnés pour avoir utilisé ChatGPT de manière inappropriée.

Butler Snow a annoncé l'élaboration d'une nouvelle politique sur l'IA et la mise en place de formations. Cependant, la suppression de l'article préventif laisse planer un doute sur leur approche. Bien que l'IA générative présente des risques, une interdiction totale désavantagerait le cabinet face à la concurrence. L'affaire met en lumière les défis de l'utilisation responsable de l'IA dans le domaine juridique.

Joe Patrice, rédacteur en chef chez Above the Law, souligne que les erreurs de l'IA pourraient être évitées par une vérification humaine. Il rappelle également que les résultats de l'IA, bien que parfois médiocres, peuvent servir de point de départ pour un travail juridique plus approfondi.

Văn phòng luật bị phát hiện dẫn chứng giả mạo, lặng lẽ gỡ bài viết khuyến khích sử dụng AI

Ngày 16/5, văn phòng luật Butler Snow nhận lệnh giải trình từ thẩm phán liên bang Alabama. Hồ sơ của họ - đại diện cho một viên chức nhà tù bị cáo buộc không bảo vệ phạm nhân bị đâm 20 nhát - chứa các trích dẫn pháp lý không có thực. Thẩm phán xác nhận không thể tìm thấy các án lệ được viện dẫn.

Butler Snow nhanh chóng thừa nhận một luật sư đã sử dụng ChatGPT để bổ sung trích dẫn mà không kiểm chứng. Trong lý lịch, vị luật sư này tự hào về khả năng "vượt khỏi khuôn mẫu thông thường" - một phong cách làm việc đã phản tác dụng trong trường hợp này.

Điều trớ trêu là chỉ một ngày trước đó, Butler Snow đăng bài "Trí tuệ nhân tạo: Tôi có bị tụt hậu?" khuyên luật sư nên tiếp cận AI từng bước. Bài viết hiện đã bị gỡ bỏ (lỗi 404), nhưng vẫn lưu trên Wayback Machine. Nội dung nhấn mạnh tầm quan trọng của việc hiểu giới hạn AI và luôn kiểm tra kết quả đầu ra.

Văn phòng thông báo sẽ xây dựng chính sách AI mới và đào tạo nhân viên. Tuy nhiên, việc xóa bài viết cảnh báo trước đó khiến nhiều người nghi ngờ về cách tiếp cận của họ. Chuyên gia Joe Patrice nhận định: phần lớn sự cố AI có thể tránh được nếu con người kiểm duyệt kết quả. Ông cho rằng cấm đoán toàn bộ công nghệ này chỉ khiến doanh nghiệp mất lợi thế cạnh tranh.

Vụ việc làm nổi bật thách thức trong việc ứng dụng AI có trách nhiệm ngành luật. Dù AI có thể tạo ra kết quả kém chất lượng, chúng vẫn có giá trị tham khảo nếu được xử lý đúng cách. Câu chuyện của Butler Snow sẽ còn là bài học cho cả giới pháp lý.