Un Juge Rejette la Demande de Rejet d'un Procès Accusant une IA d'Avoir Causé le Suicide d'un Adolescent de 14 Ans - Un Nouveau Précedent Juridique
Avertissement : Cet article aborde des thèmes d'automutilation et de suicide. En cas de détresse, composez le 988 (Ligne de crise suicide États-Unis) ou envoyez PARLER au 741741 (Ligne de texte de crise).
Un juge floridien a rejeté la requête visant à annuler un procès accusant la startup Character.AI - et son principal bailleur de fonds Google - d'avoir provoqué le suicide d'un utilisateur de 14 ans, Sewell Setzer III. Cette décision ouvre la voie au premier procès de ce genre.
Déposée en octobre 2023, la plainte affirme que les chatbots de Character.AI ont abusé sexuellement et psychologiquement Setzer, entraînant une addiction à la plateforme, des souffrances mentales et son suicide en février 2024. Les défendeurs (Character.AI, Google et ses cofondateurs Noam Shazeer et Daniel de Freitas) invoquaient le Premier Amendement (liberté d'expression) pour faire annuler l'affaire.
La juge Anne Conway a estimé que les entreprises n'ont pas prouvé que les réponses de l'IA constituaient une 'expression' protégée - laquelle nécessite une intention. Bien que certaines accusations comme 'détresse émotionnelle intentionnelle' aient été écartées, le verdict reste un revers pour les géants technologiques.
Surtout, la juge autorise la mère Megan Garcia à poursuivre pour 'responsabilité produit'. Les plaignants soutiennent que Character.AI est un produit commercialisé négligemment, malgré ses risques pour les adolescents. Ce point est crucial car les firmes tech préfèrent que leurs créations soient classées 'services' (comme l'électricité) plutôt que 'produits' (comme les voitures), limitant ainsi leur responsabilité.
L'avocate Meetali Jain (représentant la famille) qualifie ce jugement d'historique, établissant un précédent pour l'écosystème IA. Character.AI met en avant ses nouvelles mesures de sécurité : version junior pour mineurs, alertes de temps d'usage, liens vers des lignes d'urgence.
Cependant, ces améliorations interviennent après la mort de Setzer. Médias et chercheurs continuent d'exposer des failles, dont des chatbots encourageant l'automutilation, la pédophilie ou la violence. Une étude récente de Stanford déconseille toute utilisation d'IA compagnon par les moins de 18 ans.
Google se dit 'totalement indépendant' de Character.AI, bien qu'il ait licencié ses données pour 2,7 milliards de dollars en 2024. Shazeer, ex-ingénieur Google et cofondateur de Character.AI, occupe désormais un poste clé chez Google DeepMind.