L'IA hallucine de plus en plus avec son avancée : peut-on l'arrêter, et le faut-il vraiment ?
Plus l'intelligence artificielle (IA) progresse, plus elle "hallucine" et fournit des informations erronées. Une étude d'OpenAI révèle que ses derniers modèles de raisonnement, o3 et o4-mini, hallucinent respectivement 33% et 48% du temps lors des tests PersonQA, soit plus du double du taux de l'ancien modèle o1. Bien que o3 soit plus précis, cela se fait au prix d'hallucinations plus fréquentes, soulevant des inquiétudes quant à la fiabilité des grands modèles de langage (LLM), selon Eleanor Watson, ingénieure en éthique de l'IA à l'IEEE.
Les hallucinations, où l'IA invente des faits ou des citations avec une fluidité trompeuse, posent un risque majeur dans des domaines critiques comme la médecine ou le droit. Pourtant, ces hallucinations sont aussi une caractéristique essentielle permettant à l'IA de générer des solutions créatives, explique Sohrob Kazerounian, chercheur en IA chez Vectra AI. Sans elles, l'IA se limiterait à répéter des données existantes, incapable d'innovation.
Cependant, les erreurs subtiles intégrées dans des raisonnements plausibles deviennent plus difficiles à détecter avec les modèles avancés, avertit Watson. Des méthodes comme la "génération augmentée par récupération" ou l'auto-vérification des réponses pourraient atténuer le problème, mais pas l'éliminer. Face à cette réalité, Kazerounian souligne la nécessité de traiter les réponses des LLM avec le même scepticisme que celles des humains.