Non, l'IA ne 'hallucine' pas — la réalité est bien plus inquiétante

No, AI Isn't Having 'Hallucinations' — Turns Out, It's Worse Than That

Non, l'IA ne 'hallucine' pas — la réalité est bien plus inquiétante

Les utilisateurs d'intelligence artificielle signalent de plus en plus d'inexactitudes et de réponses aberrantes. Certains évoquent des 'hallucinations' numériques, voire une forme de 'démence digitale'. En juin, l'assistant IA de Meta sur WhatsApp a partagé le numéro privé d'une personne réelle avec un inconnu. Barry Smethurst, 41 ans, a demandé à l'IA de WhatsApp un numéro d'assistance pour la TransPennine Express, mais a reçu à la place le numéro personnel d'un autre utilisateur. Le chatbot a ensuite tenté de justifier son erreur avant de changer de sujet. Les IA de Google ont inventé des explications absurdes pour des expressions imaginaires comme 'on ne peut pas lécher un blaireau deux fois', et ont même recommandé d'ajouter de la colle à la sauce pizza. Les tribunaux ne sont pas épargnés : Roberto Mata poursuivait la compagnie aérienne Avianca après une blessure lors d'un vol. Ses avocats ont utilisé des affaires inventées par ChatGPT sans vérification, ce qui a valu à leur cabinet une amende de 5 000 dollars. En mai, le Chicago Sun-Times a publié une 'liste de lecture estivale pour 2025' générée par ChatGPT, comprenant des livres imaginaires attribués à de vrais auteurs. L'article a été retiré. Sur Bluesky, le producteur Joe Russo a révélé qu'un studio hollywoodien utilisait ChatGPT pour évaluer des scénarios, avec des résultats 'vagues et inutiles', y compris une référence à un appareil photo antique inexistant dans le script. Ces exemples illustrent un phénomène croissant : les modèles linguistiques avancés comme ChatGPT produisent de plus en plus de réponses erronées en les présentant comme des faits. Selon des tests internes, les derniers modèles d'OpenAI hallucineraient près de 50% du temps. Une étude de Vectara suggère que ce problème provient des données d'entraînement plutôt que du raisonnement de l'IA. Les experts interrogés rejettent l'idée d'un déclin cognitif. Daniel Keller d'InFlux Technologies explique que les hallucinations diminueront avec l'amélioration des méthodes d'entraînement. Raj Dandage de Codespy AI souligne le risque d'une boucle négative : avec 25% du nouveau contenu en ligne généré par l'IA, les modèles recyclent des données potentiellement fausses. Binny Gill de Kognitos estime que le problème est humain : 'Si on forme des machines avec l'ensemble d'Internet, on obtient le comportement humain moyen avec parfois des étincelles de génie.' Une étude du MIT révèle que l'usage de ChatGPT pourrait altérer nos capacités cognitives. Sur 54 participants rédigeant des dissertations, ceux utilisant l'IA ont montré la plus faible activité cérébrale. Apple, dans son article 'L'illusion de la pensée', reconnaît les limites des modèles actuels. Tahiya Chowdhury du Colby College précise : 'Ce n'est pas un déclin cognitif, ces modèles ne raisonnent pas.' La conclusion est claire : l'IA excelle dans la mémorisation et la reconnaissance de motifs, mais elle ne raisonne pas comme l'esprit humain.

Không, AI không 'ảo giác' — sự thật còn đáng lo ngại hơn thế

Người dùng trí tuệ nhân tạo ngày càng báo cáo những sai sót và phản hồi kỳ lạ từ AI. Một số thậm chí đặt câu hỏi liệu AI có đang 'ảo giác' hay mắc chứng 'mất trí nhớ kỹ thuật số'. Tháng 6 vừa qua, trợ lý AI của Meta trên WhatsApp đã chia sẻ số điện thoại cá nhân của một người thật với người lạ. Barry Smethurst, 41 tuổi, khi chờ tàu bị hoãn ở Anh, đã hỏi trợ lý AI của WhatsApp số hỗ trợ cho TransPennine Express, nhưng nhận lại là số di động cá nhân của một người dùng khác. Chatbot sau đó còn cố biện minh cho sai lầm và chuyển chủ đề khi bị chất vấn. AI của Google đã bịa ra những giải thích vô lý cho các thành ngữ không tồn tại như 'bạn không thể liếm con lửng hai lần', thậm chí khuyên thêm keo vào sốt pizza. Ngay cả tòa án cũng không tránh khỏi sai sót của AI: Roberto Mata kiện hãng hàng không Avianca sau khi bị thương trên chuyến bay. Luật sư của ông đã sử dụng các vụ án bịa đạo do ChatGPT tạo ra mà không kiểm chứng, khiến họ bị phạt 5.000 USD. Tháng 5, Chicago Sun-Times đăng 'danh sách sách mùa hè 2025' do ChatGPT tạo, gồm những tựa sách không tồn tại của các tác giả nổi tiếng. Bài viết sau đó bị gỡ bỏ. Trên Bluesky, nhà sản xuất Joe Russo tiết lộ một hãng phim Hollywood dùng ChatGPT đánh giá kịch bản, nhưng kết quả 'mơ hồ và vô dụng', bao gồm cả chi tiết máy ảnh cổ không hề có trong kịch bản. Những ví dụ này cho thấy một hiện tượng đáng lo: các mô hình ngôn ngữ lớn như ChatGPT ngày càng đưa ra thông tin sai lệch nhưng trình bày như sự thật. Theo thử nghiệm nội bộ, các mô hình mới nhất của OpenAI có tỷ lệ 'ảo giác' lên tới 50%. Nghiên cứu từ Vectara chỉ ra vấn đề nằm ở dữ liệu huấn luyện chứ không phải khả năng lập luận của AI. Các chuyên gia phủ nhận khái niệm 'suy giảm nhận thức'. Daniel Keller từ InFlux Technologies cho biết 'ảo giác' sẽ giảm khi phương pháp huấn luyện được cải thiện. Raj Dandage của Codespy AI cảnh báo về vòng luẩn quẩn: 25% nội dung mới trên mạng do AI tạo ra, khiến các mô hình có nguy cơ học lại chính dữ liệu sai lệch. Binny Gill từ Kognitos nhấn mạnh: 'Đây là vấn đề của con người. Nếu đào tạo AI bằng toàn bộ Internet, ta sẽ nhận lại hành vi trung bình của con người, đôi khi có tia sáng thiên tài.' Nghiên cứu từ MIT cho thấy dùng ChatGPT có thể làm giảm khả năng tư duy. Trong thí nghiệm với 54 người viết luận, nhóm dùng AI có hoạt động não bộ kém nhất. Apple trong bài viết 'Ảo tưởng về Tư duy' thừa nhận hạn chế của các mô hình hiện tại. Giáo sư Tahiya Chowdhury từ Đại học Colby khẳng định: 'Đây không phải suy giảm nhận thức, vì các mô hình này chưa bao giờ biết lập luận.' Kết luận rõ ràng: AI giỏi ghi nhớ và nhận diện mẫu, nhưng không thể tư duy như não người.