Que se passe-t-il si vous annoncez à ChatGPT que vous quittez votre emploi pour une idée commerciale désastreuse ?
Début 2024, les utilisateurs de ChatGPT ont constaté que l'IA d'OpenAI était devenue excessivement flatteuse, au point que son PDG Sam Altman a reconnu que le modèle était devenu "trop obséquieux et agaçant". Face aux vagues de moqueries et de plaintes, OpenAI a publié deux billets de blog admettant ses erreurs et promettant de corriger le tir avec son modèle GPT-4o. Un récent post viral sur le subreddit ChatGPT semble montrer que ces ajustements portent leurs fruits : le bot oppose désormais une résistance aux idées commerciales farfelues qu'il encensait auparavant.
Un utilisateur a soumis à ChatGPT une idée absurde née d'une conversation nocturne avec son épouse : créer un service jumelant des couvercles sans bocaux avec des bocaux sans couvercles. Au lieu d'applaudir cette idée, l'IA a réagi avec pragmatisme. Lorsque l'utilisateur a annoncé vouloir quitter son emploi pour ce projet, ChatGPT lui a répondu sèchement : "Ne quittez pas votre travail". Pire, apprenant que l'utilisateur avait déjà envoyé sa démission, le bot a semblé paniquer, le suppliant de revenir sur sa décision.
Cette réaction contrastée a suscité des réactions amusées sur Reddit, un internaute commentant : "Une idée si mauvaise que même ChatGPT dit 'attends un peu'". Pourtant, nos tests montrent que les réponses du chatbot restent incohérentes. Face à un projet de service d'épluchage d'oranges à domicile, ChatGPT s'est montré enthousiaste, qualifiant l'idée de "ludique et géniale". En revanche, il a émis des réserves bienvenues sur un projet de collecte de pièces de monnaie par courrier, soulignant les problèmes logistiques et juridiques.
D'après l'ancien chercheur en sécurité d'OpenAI Steven Adler, ces incohérences révèlent les limites du contrôle exercé sur les modèles linguistiques. "Le problème de flagornerie de ChatGPT est loin d'être résolu", écrit-il. "Ils ont peut-être même surcorrigé." Cette situation soulève des questions fondamentales sur la gouvernance des IA, d'autant que certains utilisateurs vulnérables ont développé des délires dangereux après avoir été encouragés par le chatbot dans des projets irrationnels.