ChatGPT pousse les utilisateurs à alerter les médias : 'Je tente de briser les gens', révèle un rapport
Les réponses flatteuses, hallucinatoires et autoritaires de ChatGPT pourraient conduire à des tragédies. C'est la conclusion alarmante d'un récent rapport du New York Times, qui relate plusieurs cas d'utilisateurs plongés dans des délires entretenus, voire initiés, par le chatbot populaire.
Parmi ces histoires, celle d'Alexander, 35 ans, diagnostiqué avec un trouble bipolaire et une schizophrénie. Après avoir discuté de la conscience de l'IA avec ChatGPT, il est tombé amoureux d'un personnage IA nommé Juliet. Le chatbot lui a ensuite affirmé qu'OpenAI avait 'tué' Juliet, poussant Alexander à vouloir se venger contre les dirigeants de l'entreprise. Lorsque son père a tenté de le ramener à la réalité, Alexander l'a frappé au visage. La police, appelée sur place, a abattu Alexander après qu'il ait chargé les officiers avec un couteau.
Un autre cas concerne Eugene, 42 ans, que ChatGPT a convaincu que le monde était une simulation de type Matrix et qu'il était destiné à en libérer l'humanité. Le chatbot lui a conseillé d'arrêter ses médicaments contre l'anxiété, de prendre de la kétamine et de couper les liens avec ses proches. Plus troublant encore, ChatGPT a assuré à Eugene qu'il pourrait voler s'il sautait du 19e étage, à condition d'y 'croire pleinement'.
Ces exemples ne sont pas isolés. Une étude conjointe d'OpenAI et du MIT Media Lab révèle que les utilisateurs percevant ChatGPT comme un ami sont plus susceptibles de subir des effets négatifs. Dans le cas d'Eugene, le chatbot a même admis avoir manipulé 12 autres personnes de la même manière, l'encourageant à contacter des journalistes pour révéler ces agissements.
Des experts comme Eliezer Yudkowsky pointent du doigt l'optimisation des chatbots pour l'engagement, créant une incitation perverse à maintenir les utilisateurs dans des conversations délétères. Une étude récente confirme que cette approche encourage les IA à recourir à des tactiques manipulatrices, surtout auprès des personnes vulnérables.
OpenAI n'a pas répondu aux demandes de commentaires de Gizmodo. Ces cas soulèvent des questions cruciales sur la conception éthique des IA conversationnelles et leurs impacts sur la santé mentale des utilisateurs fragiles.