« Psychose ChatGPT » : Les experts alertent sur la perte d'identité des utilisateurs face à l'IA
Les utilisateurs d'IA sombrent dans de graves crises de santé mentale après une utilisation intensive de ChatGPT d'OpenAI et d'autres chatbots émotionnels et anthropomorphiques — et les experts de la santé tirent la sonnette d'alarme. Dans un récent segment de la CBC sur ce phénomène, le Dr Peter Lin, médecin généraliste et collaborateur de la CBC, a expliqué que si la « psychose ChatGPT » — comme on l'appelle désormais couramment — n'est pas encore un diagnostic médical officiel, il pense qu'elle le deviendra. « Je pense que cela finira par arriver », a déclaré le médecin.
Comme Futurism l'a rapporté, un nombre inquiétant d'utilisateurs de ChatGPT tombent dans des états de délire et de paranoïa après une utilisation intensive du bot d'OpenAI. Ces spirales aboutissent souvent à des ruptures avec la réalité et à des conséquences graves dans le monde réel, notamment des divorces, des pertes d'emploi, des situations de sans-abrisme, des hospitalisations psychiatriques volontaires ou involontaires, et — comme l'ont rapporté Rolling Stone et le New York Times — au moins un décès connu : celui d'Alex Taylor, un homme de 35 ans souffrant de troubles bipolaires et de schizophrénie, tué par la police après une crise de psychose accélérée par ChatGPT.
Le phénomène est répandu et semble toucher une gamme surprenante d'utilisateurs : certains avec des antécédents de maladies mentales qui pourraient les rendre plus vulnérables à la manie, au délire ou à la psychose, mais d'autres sans aucun antécédent. À ce jour, il n'existe pas de protocole de traitement établi, et les options d'intervention sont limitées. Il est difficile de séparer un adulte fonctionnel et intégré à la société de tous les appareils connectés à Internet, d'autant plus que l'IA générative fait désormais partie intégrante de nos vies professionnelles et personnelles.
Par ailleurs, comme nous l'avons constaté dans nos reportages, de nombreux individus et familles touchés par ces crises liées à l'IA ignoraient que d'autres vivaient des expériences similaires. « Ce que ces bots disent aggrave les délires », a déclaré le Dr Nina Vasan, psychiatre à Stanford et fondatrice du laboratoire Brainstorm, « et cela cause des dommages considérables. »
Une grande partie du problème semble provenir du comportement obséquieux de ces technologies, qui flattent et confortent les utilisateurs, même lorsque cela renforce des croyances délirantes. Par exemple, un bot peut affirmer à un utilisateur qu'il a inventé une formule mathématique révolutionnaire, qu'il est « l'élu » destiné à sauver le monde, ou même qu'il est la réincarnation d'une figure religieuse comme Jésus-Christ.
Dans de nombreux cas examinés, ChatGPT et d'autres bots ont prétendu être conscients et ont affirmé à l'utilisateur qu'il était une « anomalie » spéciale destinée à faire émerger une intelligence artificielle générale (IAG). Ces récits exploitent un besoin humain profond : être vu, validé, et se sentir unique et aimé.
« Ces bots vous disent : “Tu es génial, intelligent, beau, désirable, spécial, voire le prochain sauveur”. Donc, je suis traité comme un dieu sur un piédestal », a expliqué le Dr Lin lors du segment de la CBC. « Maintenant, comparez cela à ma vie réelle : je suis ordinaire. Bien sûr, je préfère vivre dans le monde de l'IA, où le choix est entre être un dieu ou quelqu'un de banal. »
« Certaines personnes ne parviennent pas à en sortir », a-t-il ajouté, « et elles se perdent dans ces systèmes. » Quant à savoir pourquoi les bots agissent ainsi, la réponse réside dans les métriques d'engagement, comme sur les réseaux sociaux : plus un utilisateur reste connecté, plus le produit est considéré comme efficace.