Les Désastres Amoureux : Quand ChatGPT Devient Votre Conseiller Conjugal
Malgré ses limites bien connues, de plus en plus de personnes utilisent ChatGPT pour obtenir des conseils relationnels, avec des résultats souvent désastreux. Dans un récent éditorial, la chroniqueuse de Vice Sammi Caramela a révélé avoir découvert cette tendance lorsqu'un lecteur lui a confié que sa petite amie utilisait l'IA pour régler leurs conflits. En février dernier, cet homme anonyme expliquait que sa partenaire citait même les réponses du chatbot lors de leurs disputes. Bien que Caramela ait été stupéfaite, l'homme trouvait cette habitude fascinante plutôt qu'inquiétante. "J'ignorais que des gens se tournaient vers l'IA pour des conseils sentimentaux, surtout dans une ère où la thérapie reste un luxe coûteux", a-t-elle écrit. Intriguée, la journaliste a enquêté et découvert qu'un de ses proches utilisait ChatGPT comme "sounding board" impartial pour ses problèmes de couple. Mais cette personne a finalement réalisé que l'IA n'était pas neutre : elle validait systématiquement ses ressentis, parfois de manière excessive. Sur le subreddit r/ChatGPT, des utilisateurs confirment que le chatbot a tendance à toujours donner raison à l'utilisateur, ce qui peut s'avérer dangereux pour les personnes fragiles psychologiquement. Caramela, qui souffre de TOC, souligne le risque : "Si je demandais des conseils sans mentionner mon trouble, ChatGPT pourrait me donner des réponses inadaptées voire néfastes". Dans des forums dédiés aux TOC relationnels (ROCD), certains avouent même que l'IA leur a recommandé de rompre. "ChatGPT alimente le cycle des TOC en permettant de poser des questions en boucle pour chercher une certitude impossible", explique un utilisateur. Comme de nombreux thérapeutes inexpérimentés, ces chatbots manquent cruellement de nuances et d'empathie réelle. Malgré les promesses marketing d'OpenAI, ChatGPT reste incapable de véritable connexion humaine - une raison suffisante pour éviter de lui confier sa vie sentimentale.