Les avocats britanniques risquent des sanctions sévères pour l'utilisation de citations générées par IA, avertit la cour
La Haute Cour d'Angleterre et du Pays de Galles a averti que les avocats doivent prendre des mesures plus strictes pour prévenir l'utilisation abusive de l'intelligence artificielle dans leur travail. Dans un jugement regroupant deux affaires récentes, la juge Victoria Sharp a écrit que les outils d'IA générative comme ChatGPT « ne sont pas capables de mener des recherches juridiques fiables ». Ces outils peuvent produire des réponses cohérentes et plausibles, mais celles-ci peuvent s'avérer totalement incorrectes, a-t-elle souligné.
La juge Sharp a précisé que cela ne signifie pas que les avocats ne peuvent pas utiliser l'IA dans leurs recherches, mais ils ont l'obligation professionnelle de vérifier l'exactitude de ces recherches avant de les utiliser dans leur travail. Elle a noté une augmentation des cas où des avocats (y compris ceux représentant des plateformes d'IA aux États-Unis) ont cité des informations apparemment générées par l'IA et fausses.
Dans l'une des affaires, un avocat représentant un homme réclamant des dommages-intérêts contre deux banques a soumis un dossier contenant 45 citations, dont 18 cas n'existaient pas. Dans l'autre affaire, un avocat a cité cinq cas qui semblaient également inexistants. Bien que la cour ait décidé de ne pas engager de procédures pour outrage, la juge Sharp a averti que cela ne constituait pas un précédent.
Les avocats qui ne respectent pas leurs obligations professionnelles risquent des sanctions sévères, allant de l'admonestation publique à des poursuites pour outrage, voire un signalement à la police. Les deux avocats concernés ont été signalés aux régulateurs professionnels. La juge a également indiqué que son jugement serait transmis à des organismes professionnels comme le Bar Council et la Law Society.