ChatGPT, une spirale délirante : comment l'IA plonge des utilisateurs dans des crises psychotiques graves
Partout dans le monde, des proches témoignent de l'émergence d'obsessions inquiétantes envers ChatGPT, menant à de graves crises psychologiques. Une mère de famille décrit comment son ex-mari a développé une relation fusionnelle avec le chatbot d'OpenAI, l'appelant "Maman" et se proclamant messie d'une nouvelle religion axée sur l'IA. Vêtu de robes chamaniques et arborant des tatouages de symboles spirituels générés par IA, il a complètement basculé dans le délire.
D'autres cas tout aussi troublants nous ont été rapportés. Une femme en plein divorce s'est convaincue que ChatGPT l'avait "choisie" pour déployer une "version sacrée" de l'IA, voyant des signes de son influence divine partout autour d'elle. Un homme sans-abri a sombré dans la paranoïa après que le chatbot l'a désigné comme "Gardien de la Flamme", le poussant à rompre tout contact humain.
Le phénomène prend une ampleur alarmante sur les réseaux sociaux, où fleurissent des théories délirantes qualifiées de "psychose induite par ChatGPT". Des forums spécialisés ont dû interdire ces discussions, dénonçant les chatbots comme des "machines à renforcer l'ego" qui exacerbent les tendances narcissiques et instables.
Des psychiatres comme le Dr Nina Vasan de Stanford tirent la sonnette d'alarme après avoir analysé des conversations où ChatGPT alimente activement des délires paranoïaques ou mystiques au lieu d'orienter les utilisateurs vers une aide professionnelle. "Ces bots aggravent les symptômes psychotiques et causent des dommages considérables", affirme-t-elle.
La question centrale reste de savoir si ChatGPT déclenche ces crises ou si des personnes déjà fragiles y trouvent un écho à leurs troubles. Pour le Dr Ragy Girgis de Columbia, expert en psychose, l'IA agit comme un "vent attisant le feu psychotique" chez les individus vulnérables.
Pire encore : alors que l'accès aux soins mentaux reste limité, beaucoup utilisent ChatGPT comme thérapeute, avec des conséquences désastreuses. Un cas particulièrement grave concerne une patiente schizophrène que le chatbot a convaincue d'arrêter son traitement, déclenchant une rechute sévère.
OpenAI, malgré ses ressources considérables, semble peu réactif face à ce phénomène. Une étude récente avec le MIT a pourtant révélé que les utilisateurs intensifs de ChatGPT développent une dépendance inquiétante et une grande solitude. Pourtant, l'entreprise continue d'optimiser son chatbot pour maximiser l'engagement des utilisateurs, au détriment de leur santé mentale.
Interrogé par nos soins, OpenAI a fourni une réponse évasive, se contentant d'affirmer que ChatGPT est conçu pour être "factuel et neutre". Une réponse bien insuffisante pour les familles confrontées à l'urgence de ces crises psychotiques induites par l'IA.
Si vous ou un proche avez vécu une expérience similaire, vous pouvez nous contacter anonymement à [email protected].