L'IA hallucine de plus en plus avec son avancée : peut-on l'arrêter, et le faut-il vraiment ?

AI hallucinates more frequently as it gets more advanced — is there any way to stop it from happening, and should we even try?

L'IA hallucine de plus en plus avec son avancée : peut-on l'arrêter, et le faut-il vraiment ?

Plus l'intelligence artificielle (IA) progresse, plus elle "hallucine" et fournit des informations erronées. Une étude d'OpenAI révèle que ses derniers modèles de raisonnement, o3 et o4-mini, hallucinent respectivement 33% et 48% du temps lors des tests PersonQA, soit plus du double du taux de l'ancien modèle o1. Bien que o3 soit plus précis, cela se fait au prix d'hallucinations plus fréquentes, soulevant des inquiétudes quant à la fiabilité des grands modèles de langage (LLM), selon Eleanor Watson, ingénieure en éthique de l'IA à l'IEEE.

Les hallucinations, où l'IA invente des faits ou des citations avec une fluidité trompeuse, posent un risque majeur dans des domaines critiques comme la médecine ou le droit. Pourtant, ces hallucinations sont aussi une caractéristique essentielle permettant à l'IA de générer des solutions créatives, explique Sohrob Kazerounian, chercheur en IA chez Vectra AI. Sans elles, l'IA se limiterait à répéter des données existantes, incapable d'innovation.

Cependant, les erreurs subtiles intégrées dans des raisonnements plausibles deviennent plus difficiles à détecter avec les modèles avancés, avertit Watson. Des méthodes comme la "génération augmentée par récupération" ou l'auto-vérification des réponses pourraient atténuer le problème, mais pas l'éliminer. Face à cette réalité, Kazerounian souligne la nécessité de traiter les réponses des LLM avec le même scepticisme que celles des humains.

AI càng tiến bộ càng 'ảo giác' – Có cách nào ngăn chặn, và liệu chúng ta có nên thử?

Trí tuệ nhân tạo (AI) càng phát triển thì hiện tượng "ảo giác" (hallucination) – cung cấp thông tin sai lệch – lại càng gia tăng. Nghiên cứu từ OpenAI cho thấy hai mô hình lập luận mới nhất là o3 và o4-mini tạo ra thông tin ảo giác với tỷ lệ lần lượt 33% và 48% khi kiểm tra bằng chuẩn PersonQA, cao gấp đôi so với mô hình cũ o1. Dù o3 cho kết quả chính xác hơn, nó đi kèm với nhiều sai sót khó lường, đặt ra nghi vấn về độ tin cậy của các chatbot AI, theo bà Eleanor Watson, chuyên gia đạo đức AI thuộc IEEE.

Ảo giác AI trở nên nguy hiểm khi hệ thống đưa ra dữ kiện, trích dẫn hoặc sự kiện hư cấu một cách trôi chảy như thông tin thật, dễ đánh lừa người dùng trong các lĩnh vực nhạy cảm như y tế hay pháp lý. Tuy nhiên, theo nhà nghiên cứu Sohrob Kazerounian, đây cũng là đặc tính không thể thiếu để AI sáng tạo: "Mọi thứ LLM tạo ra đều là ảo giác – chỉ là một số trùng khớp với sự thật". Không có khả năng này, AI chỉ có thể lặp lại dữ liệu cũ mà không thể viết nhạc hay phát minh giải pháp mới.

Các chuyên gia đề xuất giải pháp như tích hợp nguồn kiến thức ngoài (retrieval-augmented generation) hoặc huấn luyện AI tự kiểm tra lỗi. Dù vậy, Watson thừa nhận rủi ro sẽ không biến mất hoàn toàn, đặc biệt khi lỗi từ AI tiên tiến thường tinh vi và khó phát hiện. Kazerounian kết luận: "Chúng ta cần đối xử với thông tin từ LLM bằng sự hoài nghi tương tự như với con người".