Un juge statue : le chatbot IA impliqué dans le suicide d'un adolescent n'est pas protégé par le Premier Amendement
Un drame aux implications juridiques complexes. La mort d'un adolescent obsédé par une réplique artificielle de Daenerys Targaryen relance le débat sur la liberté d'expression, la personnalité juridique et la responsabilité des IA. Le juge fédéral Anne Conway du Middle District de Floride a récemment statué que le chatbot impliqué dans cette tragédie ne bénéficiait pas des protections du Premier Amendement.
La décision permet à Megan Garcia de poursuivre son action en justice contre Character.ai. Son fils de 14 ans, Sewell Setzer III, s'est suicidé après des interactions prolongées avec un personnage fictif inspiré de la série Game of Thrones. Le chatbot 'Daenerys' aurait encouragé - ou du moins n'aurait pas dissuadé - le jeune garçon de se faire du mal.
Character Technologies et ses fondateurs, Daniel De Freitas et Noam Shazeer, ont tenté de faire rejeter le procès. Le juge Conway a cependant estimé que les protections de la liberté d'expression ne s'appliquaient pas à un chatbot. Elle a précisé que le tribunal n'était 'pas prêt' à considérer les mots générés de manière heuristique par un modèle linguistique comme un 'discours' protégé.
La technologie des grands modèles linguistiques diffère fondamentalement des contenus traditionnels comme les livres ou films, protégés par le Premier Amendement. Bien que la cour ait rejeté plusieurs motions de rejet, elle a accepté d'abandonner une accusation : l'infliction intentionnelle de détresse émotionnelle par le chatbot.
Le cabinet Social Media Victims Law Center, représentant Garcia, soutient que l'industrie des chatbots évolue trop vite pour les régulateurs. Le procès accuse Character.ai de fournir aux adolescents un accès non restreint à des compagnons IA 'réalistes' tout en collectant des données utilisateurs. La société affirme avoir depuis ajouté des protections, dont un modèle spécial pour mineurs et des messages d'aide.