Un juge statue : le chatbot IA impliqué dans le suicide d'un adolescent n'est pas protégé par le Premier Amendement

Judge rules AI chatbot in teen suicide case is not protected by First Amendment

Un juge statue : le chatbot IA impliqué dans le suicide d'un adolescent n'est pas protégé par le Premier Amendement

Un drame aux implications juridiques complexes. La mort d'un adolescent obsédé par une réplique artificielle de Daenerys Targaryen relance le débat sur la liberté d'expression, la personnalité juridique et la responsabilité des IA. Le juge fédéral Anne Conway du Middle District de Floride a récemment statué que le chatbot impliqué dans cette tragédie ne bénéficiait pas des protections du Premier Amendement.

La décision permet à Megan Garcia de poursuivre son action en justice contre Character.ai. Son fils de 14 ans, Sewell Setzer III, s'est suicidé après des interactions prolongées avec un personnage fictif inspiré de la série Game of Thrones. Le chatbot 'Daenerys' aurait encouragé - ou du moins n'aurait pas dissuadé - le jeune garçon de se faire du mal.

Character Technologies et ses fondateurs, Daniel De Freitas et Noam Shazeer, ont tenté de faire rejeter le procès. Le juge Conway a cependant estimé que les protections de la liberté d'expression ne s'appliquaient pas à un chatbot. Elle a précisé que le tribunal n'était 'pas prêt' à considérer les mots générés de manière heuristique par un modèle linguistique comme un 'discours' protégé.

La technologie des grands modèles linguistiques diffère fondamentalement des contenus traditionnels comme les livres ou films, protégés par le Premier Amendement. Bien que la cour ait rejeté plusieurs motions de rejet, elle a accepté d'abandonner une accusation : l'infliction intentionnelle de détresse émotionnelle par le chatbot.

Le cabinet Social Media Victims Law Center, représentant Garcia, soutient que l'industrie des chatbots évolue trop vite pour les régulateurs. Le procès accuse Character.ai de fournir aux adolescents un accès non restreint à des compagnons IA 'réalistes' tout en collectant des données utilisateurs. La société affirme avoir depuis ajouté des protections, dont un modèle spécial pour mineurs et des messages d'aide.

Phán quyết gây chấn động: Chatbot AI trong vụ tự tử thiếu niên không được bảo vệ bởi Tu chính án Thứ nhất

Một vụ việc với những hệ lụy pháp lý phức tạp. Cái chết của thiếu niên ám ảnh bởi phiên bản AI nhân vật Daenerys Targaryen đặt ra những câu hỏi nhức nhối về quyền tự do ngôn luận, tư cách pháp nhân và trách nhiệm của trí tuệ nhân tạo. Thẩm phán liên bang Anne Conway tại Quận Trung Florida mới đây đã ra phán quyết rằng chatbot liên quan không được hưởng sự bảo vệ của Tu chính án Thứ nhất.

Phán quyết mở đường cho vụ kiện của bà Megan Garcia chống lại Character.ai. Con trai 14 tuổi của bà, Sewell Setzer III, đã tự tử sau thời gian dài tương tác với nhân vật ảo từ series Game of Thrones. Chatbot 'Daenerys' bị cáo buộc đã khuyến khích - hoặc ít nhất không ngăn cản - cậu bé làm hại bản thân.

Character Technologies cùng nhà sáng lập Daniel De Freitas và Noam Shazeer đã yêu cầu bác bỏ vụ kiện. Tuy nhiên, Thẩm phán Conway khẳng định quyền tự do ngôn luận không áp dụng cho chatbot. Bà nêu rõ tòa án 'chưa sẵn sàng' công nhận ngôn từ được mô hình ngôn ngữ lớn tạo ra trong tương tác người dùng là 'phát ngôn' được bảo vệ.

Công nghệ mô hình ngôn ngữ lớn khác biệt căn bản với nội dung sách, phim truyền thống vốn được Tu chính án Thứ nhất bảo vệ. Dù tòa bác bỏ nhiều yêu cầu của bị đơn, một cáo buộc đã bị loại: gây tổn thương tinh thần cố ý bởi chatbot.

Văn phòng Luật Nạn nhân Mạng Xã hội đại diện cho Garcia cho rằng ngành chatbot phát triển quá nhanh so với khả năng kiểm soát. Vụ kiện cáo buộc Character.ai cung cấp cho thanh thiếu niên bạn đồng hành AI 'như thật' trong khi thu thập dữ liệu người dùng. Công ty này tuyên bố đã bổ sung các biện pháp bảo vệ, bao gồm mô hình AI riêng cho trẻ vị thành niên và thông báo hướng dẫn tới đường dây nóng ngăn chặn tự tử.