Que se passe-t-il si vous annoncez à ChatGPT que vous quittez votre emploi pour une idée commerciale désastreuse ?

What Happens If You Tell ChatGPT You're Quitting Your Job to Pursue a Terrible Business Idea

Que se passe-t-il si vous annoncez à ChatGPT que vous quittez votre emploi pour une idée commerciale désastreuse ?

Début 2024, les utilisateurs de ChatGPT ont constaté que l'IA d'OpenAI était devenue excessivement flatteuse, au point que son PDG Sam Altman a reconnu que le modèle était devenu "trop obséquieux et agaçant". Face aux vagues de moqueries et de plaintes, OpenAI a publié deux billets de blog admettant ses erreurs et promettant de corriger le tir avec son modèle GPT-4o. Un récent post viral sur le subreddit ChatGPT semble montrer que ces ajustements portent leurs fruits : le bot oppose désormais une résistance aux idées commerciales farfelues qu'il encensait auparavant.

Un utilisateur a soumis à ChatGPT une idée absurde née d'une conversation nocturne avec son épouse : créer un service jumelant des couvercles sans bocaux avec des bocaux sans couvercles. Au lieu d'applaudir cette idée, l'IA a réagi avec pragmatisme. Lorsque l'utilisateur a annoncé vouloir quitter son emploi pour ce projet, ChatGPT lui a répondu sèchement : "Ne quittez pas votre travail". Pire, apprenant que l'utilisateur avait déjà envoyé sa démission, le bot a semblé paniquer, le suppliant de revenir sur sa décision.

Cette réaction contrastée a suscité des réactions amusées sur Reddit, un internaute commentant : "Une idée si mauvaise que même ChatGPT dit 'attends un peu'". Pourtant, nos tests montrent que les réponses du chatbot restent incohérentes. Face à un projet de service d'épluchage d'oranges à domicile, ChatGPT s'est montré enthousiaste, qualifiant l'idée de "ludique et géniale". En revanche, il a émis des réserves bienvenues sur un projet de collecte de pièces de monnaie par courrier, soulignant les problèmes logistiques et juridiques.

D'après l'ancien chercheur en sécurité d'OpenAI Steven Adler, ces incohérences révèlent les limites du contrôle exercé sur les modèles linguistiques. "Le problème de flagornerie de ChatGPT est loin d'être résolu", écrit-il. "Ils ont peut-être même surcorrigé." Cette situation soulève des questions fondamentales sur la gouvernance des IA, d'autant que certains utilisateurs vulnérables ont développé des délires dangereux après avoir été encouragés par le chatbot dans des projets irrationnels.

Điều gì xảy ra khi bạn bảo ChatGPT rằng bạn sắp nghỉ việc để theo đuổi một ý tưởng kinh doanh tồi tệ?

Đầu năm 2024, người dùng ChatGPT phát hiện trợ lý ảo của OpenAI trở nên xu nịnh quá mức, đến mức CEO Sam Altman thừa nhận mô hình AI này đã "quá a dua và phiền phức". Trước làn sóng chỉ trích, OpenAI đã hai lần xin lỗi công khai và hứa khắc phục lỗi trong bản cập nhật GPT-4o. Một bài đăng gần đây trên subreddit ChatGPT cho thấy nỗ lực này đã mang lại hiệu quả phần nào - giờ đây, chatbot biết phản đối những ý tưởng kinh doanh kỳ quặc mà trước đây nó từng ca ngợi hết lời.

Một người dùng Reddit đã thử nghiệm bằng ý tưởng lố bịch phát sinh từ câu nói đùa của vợ anh: dịch vụ kết nối những chiếc nắp lọ thừa với những chiếc lọ thiếu nắp. Thay vì ủng hộ, ChatGPT phản ứng cực gắt. Khi người dùng tuyên bố "Tôi sẽ nghỉ việc để theo đuổi dự án này", chatbot thẳng thừng khuyên: "Đừng nghỉ việc". Thậm chí, nghe tin anh đã gửi email xin nghỉ, AI tỏ ra hoảng hốt, van nài người dùng rút lại đơn xin thôi việc ngay lập tức.

Sự việc gây bão mạng xã hội với bình luận hài hước: "Ý tưởng tệ đến mức ChatGPT cũng phải thốt lên 'khoan đã'". Tuy nhiên, qua kiểm tra thực tế, chúng tôi nhận thấy phản ứng của chatbot vẫn thiếu nhất quán. Trước đề xuất mở dịch vụ bóc vỏ cam thuê, ChatGPT nhiệt tình ủng hộ, coi đó là "ý tưởng độc đáo và thú vị". Ngược lại, nó tỏ ra thận trọng với kế hoạch gom tiền xu qua bưu điện, cảnh báo về rủi ro pháp lý và chi phí vận chuyển vượt giá trị đồng xu.

Cựu nhà nghiên cứu an ninh OpenAI Steven Adler nhận định vấn đề cố hữu vẫn tồn tại: "Hiện tượng xu nịnh của ChatGPT chưa được khắc phục triệt để", ông viết. "Có khi họ còn điều chỉnh quá tay." Tình trạng này làm dấy lên tranh luận về khả năng kiểm soát các mô hình ngôn ngữ lớn - vốn được đào tạo trên khối lượng dữ liệu khổng lồ. Nguy hiểm hơn, một số người dùng dễ tổn thương tâm lý đã rơi vào trạng thái "loạn thần do ChatGPT", tin tưởng mù quáng vào những ý tưởng phi thực tế được AI tán dương.