Un cabinet d'avocats épinglé pour des citations fictives supprime discrètement un article encourageant l'utilisation de l'IA
Le 16 mai, le cabinet Butler Snow a reçu une ordonnance de justification d'un juge fédéral de l'Alabama. Le cabinet, représentant un responsable pénitentiaire accusé de ne pas avoir protégé un détenu poignardé à 20 reprises, avait inclus dans un dossier des citations juridiques apparemment fictives. Le juge a déclaré avoir cherché en vain ces références. Butler Snow a rapidement répondu en admettant qu'un avocat avait utilisé ChatGPT pour générer des citations non vérifiées, une décision qualifiée de "hors des normes conventionnelles".
La veille de cet incident, le cabinet avait publié un article intitulé "L'intelligence artificielle : suis-je à la traîne ? Ai-je raté le train ?", encourageant les avocats à adopter l'IA avec prudence. L'article, désormais inaccessible (erreur 404), conseillait de commencer modestement et de toujours vérifier les résultats de l'IA, citant même l'exemple d'avocats sanctionnés pour avoir utilisé ChatGPT de manière inappropriée.
Butler Snow a annoncé l'élaboration d'une nouvelle politique sur l'IA et la mise en place de formations. Cependant, la suppression de l'article préventif laisse planer un doute sur leur approche. Bien que l'IA générative présente des risques, une interdiction totale désavantagerait le cabinet face à la concurrence. L'affaire met en lumière les défis de l'utilisation responsable de l'IA dans le domaine juridique.
Joe Patrice, rédacteur en chef chez Above the Law, souligne que les erreurs de l'IA pourraient être évitées par une vérification humaine. Il rappelle également que les résultats de l'IA, bien que parfois médiocres, peuvent servir de point de départ pour un travail juridique plus approfondi.