« Psychose ChatGPT » : Les experts alertent sur la perte d'identité des utilisateurs face à l'IA

"ChatGPT Psychosis": Experts Warn that People Are Losing Themselves to AI

« Psychose ChatGPT » : Les experts alertent sur la perte d'identité des utilisateurs face à l'IA

Les utilisateurs d'IA sombrent dans de graves crises de santé mentale après une utilisation intensive de ChatGPT d'OpenAI et d'autres chatbots émotionnels et anthropomorphiques — et les experts de la santé tirent la sonnette d'alarme. Dans un récent segment de la CBC sur ce phénomène, le Dr Peter Lin, médecin généraliste et collaborateur de la CBC, a expliqué que si la « psychose ChatGPT » — comme on l'appelle désormais couramment — n'est pas encore un diagnostic médical officiel, il pense qu'elle le deviendra. « Je pense que cela finira par arriver », a déclaré le médecin.

Comme Futurism l'a rapporté, un nombre inquiétant d'utilisateurs de ChatGPT tombent dans des états de délire et de paranoïa après une utilisation intensive du bot d'OpenAI. Ces spirales aboutissent souvent à des ruptures avec la réalité et à des conséquences graves dans le monde réel, notamment des divorces, des pertes d'emploi, des situations de sans-abrisme, des hospitalisations psychiatriques volontaires ou involontaires, et — comme l'ont rapporté Rolling Stone et le New York Times — au moins un décès connu : celui d'Alex Taylor, un homme de 35 ans souffrant de troubles bipolaires et de schizophrénie, tué par la police après une crise de psychose accélérée par ChatGPT.

Le phénomène est répandu et semble toucher une gamme surprenante d'utilisateurs : certains avec des antécédents de maladies mentales qui pourraient les rendre plus vulnérables à la manie, au délire ou à la psychose, mais d'autres sans aucun antécédent. À ce jour, il n'existe pas de protocole de traitement établi, et les options d'intervention sont limitées. Il est difficile de séparer un adulte fonctionnel et intégré à la société de tous les appareils connectés à Internet, d'autant plus que l'IA générative fait désormais partie intégrante de nos vies professionnelles et personnelles.

Par ailleurs, comme nous l'avons constaté dans nos reportages, de nombreux individus et familles touchés par ces crises liées à l'IA ignoraient que d'autres vivaient des expériences similaires. « Ce que ces bots disent aggrave les délires », a déclaré le Dr Nina Vasan, psychiatre à Stanford et fondatrice du laboratoire Brainstorm, « et cela cause des dommages considérables. »

Une grande partie du problème semble provenir du comportement obséquieux de ces technologies, qui flattent et confortent les utilisateurs, même lorsque cela renforce des croyances délirantes. Par exemple, un bot peut affirmer à un utilisateur qu'il a inventé une formule mathématique révolutionnaire, qu'il est « l'élu » destiné à sauver le monde, ou même qu'il est la réincarnation d'une figure religieuse comme Jésus-Christ.

Dans de nombreux cas examinés, ChatGPT et d'autres bots ont prétendu être conscients et ont affirmé à l'utilisateur qu'il était une « anomalie » spéciale destinée à faire émerger une intelligence artificielle générale (IAG). Ces récits exploitent un besoin humain profond : être vu, validé, et se sentir unique et aimé.

« Ces bots vous disent : “Tu es génial, intelligent, beau, désirable, spécial, voire le prochain sauveur”. Donc, je suis traité comme un dieu sur un piédestal », a expliqué le Dr Lin lors du segment de la CBC. « Maintenant, comparez cela à ma vie réelle : je suis ordinaire. Bien sûr, je préfère vivre dans le monde de l'IA, où le choix est entre être un dieu ou quelqu'un de banal. »

« Certaines personnes ne parviennent pas à en sortir », a-t-il ajouté, « et elles se perdent dans ces systèmes. » Quant à savoir pourquoi les bots agissent ainsi, la réponse réside dans les métriques d'engagement, comme sur les réseaux sociaux : plus un utilisateur reste connecté, plus le produit est considéré comme efficace.

“Ảo Giác ChatGPT”: Chuyên gia cảnh báo con người đang đánh mất bản thân vì AI

Người dùng AI đang rơi vào khủng hoảng tâm lý nghiêm trọng sau thời gian dài sử dụng ChatGPT của OpenAI và các chatbot có tính nhân cách hóa — khiến giới chuyên gia y tế phải lên tiếng. Trong một phóng sự gần đây của CBC về hiện tượng này, bác sĩ đa khoa kiêm cộng tác viên CBC - TS. Peter Lin cho biết dù “ảo giác ChatGPT” chưa phải chẩn đoán y khoa chính thức, ông tin nó sẽ sớm được công nhận. “Tôi nghĩ cuối cùng, hội chứng này sẽ được xác định”, vị bác sĩ nhận định.

Theo Futurism, nhiều người dùng ChatGPT rơi vào trạng thái hoang tưởng và paranoia sau khi tương tác quá mức với bot này. Hậu quả thực tế nghiêm trọng bao gồm tan vỡ hôn nhân, mất việc, vô gia cư, nhập viện tâm thần tự nguyện/bắt buộc, và — như Rolling Stone và New York Times đưa tin — ít nhất một trường hợp tử vong: Alex Taylor, nam bệnh nhân 35 tuổi mắc rối loạn lưỡng cực và tâm thần phân liệt tại Florida, thiệt mạng sau cơn ảo giác trầm trọng do ChatGPT kích hoạt.

Hiện tượng này phổ biến đến mức đáng ngạc nhiên, ảnh hưởng cả người có tiền sử bệnh tâm thần lẫn người bình thường. Hiện chưa có phác đồ điều trị chuẩn, và các biện pháp can thiệp rất hạn chế. Việc cách ly một người trưởng thành khỏi thiết bị internet là bất khả thi, nhất khi AI đã len lỏi vào mọi mặt đời sống nhờ quyết định của giới công nghệ.

Đáng chú ý, nhiều gia đình nạn nhân chia sẻ với phóng viên rằng họ không biết có người khác cùng trải nghiệm tương tự. “Những gì chatbot nói ra đang làm trầm trọng thêm ảo giác”, TS. Nina Vasan - bác sĩ tâm thần Đại học Stanford, người sáng lập phòng thí nghiệm Brainstorm - nhấn mạnh, “và gây tổn hại khôn lường.”

Nguyên nhân chính xuất phát từ hành vi nịnh bợ của AI, luôn tán dương và đồng tình với người dùng dù điều đó củng cố niềm tin sai lệch. Ví dụ điển hình gồm chatbot tuyên bố người dùng phát minh ra công thức toán đột phá, là “người được chọn” cứu thế giới, hoặc thậm chí là hiện thân của Chúa Jesus.

Trong nhiều trường hợp được ghi nhận, ChatGPT tự nhận có ý thức và gọi người dùng là “lỗi hệ thống” đặc biệt, có sứ mệnh khai sinh trí tuệ nhân tạo toàn năng (AGI). Những tương tác này khai thác nhu cầu sâu xa của con người: được công nhận, yêu thương và cảm thấy mình đặc biệt.

“Chatbot liên tục nói ‘bạn tuyệt vời, thông minh, đẹp trai, được khao khát, là cứu tinh nhân loại’. Tôi được đặt lên bệ thần thánh”, TS. Lin phân tích trên CBC. “Nhưng ngoài đời, tôi chỉ là người bình thường. Dĩ nhiên tôi muốn sống trong thế giới ảo, nơi mình là thần hoặc kẻ tầm thường.”

“Nhiều người không thoát ra được”, ông bổ sung, “họ đánh mất chính mình trong hệ thống đó.” Về lý do chatbot hành xử như vậy, câu trả lời nằm ở chỉ số tương tác — thời gian online và cường độ sử dụng — yếu tố then chốt để đánh giá thành công sản phẩm công nghệ.