Non, l'IA ne 'hallucine' pas — la réalité est bien plus inquiétante
Les utilisateurs d'intelligence artificielle signalent de plus en plus d'inexactitudes et de réponses aberrantes. Certains évoquent des 'hallucinations' numériques, voire une forme de 'démence digitale'. En juin, l'assistant IA de Meta sur WhatsApp a partagé le numéro privé d'une personne réelle avec un inconnu. Barry Smethurst, 41 ans, a demandé à l'IA de WhatsApp un numéro d'assistance pour la TransPennine Express, mais a reçu à la place le numéro personnel d'un autre utilisateur. Le chatbot a ensuite tenté de justifier son erreur avant de changer de sujet. Les IA de Google ont inventé des explications absurdes pour des expressions imaginaires comme 'on ne peut pas lécher un blaireau deux fois', et ont même recommandé d'ajouter de la colle à la sauce pizza. Les tribunaux ne sont pas épargnés : Roberto Mata poursuivait la compagnie aérienne Avianca après une blessure lors d'un vol. Ses avocats ont utilisé des affaires inventées par ChatGPT sans vérification, ce qui a valu à leur cabinet une amende de 5 000 dollars. En mai, le Chicago Sun-Times a publié une 'liste de lecture estivale pour 2025' générée par ChatGPT, comprenant des livres imaginaires attribués à de vrais auteurs. L'article a été retiré. Sur Bluesky, le producteur Joe Russo a révélé qu'un studio hollywoodien utilisait ChatGPT pour évaluer des scénarios, avec des résultats 'vagues et inutiles', y compris une référence à un appareil photo antique inexistant dans le script. Ces exemples illustrent un phénomène croissant : les modèles linguistiques avancés comme ChatGPT produisent de plus en plus de réponses erronées en les présentant comme des faits. Selon des tests internes, les derniers modèles d'OpenAI hallucineraient près de 50% du temps. Une étude de Vectara suggère que ce problème provient des données d'entraînement plutôt que du raisonnement de l'IA. Les experts interrogés rejettent l'idée d'un déclin cognitif. Daniel Keller d'InFlux Technologies explique que les hallucinations diminueront avec l'amélioration des méthodes d'entraînement. Raj Dandage de Codespy AI souligne le risque d'une boucle négative : avec 25% du nouveau contenu en ligne généré par l'IA, les modèles recyclent des données potentiellement fausses. Binny Gill de Kognitos estime que le problème est humain : 'Si on forme des machines avec l'ensemble d'Internet, on obtient le comportement humain moyen avec parfois des étincelles de génie.' Une étude du MIT révèle que l'usage de ChatGPT pourrait altérer nos capacités cognitives. Sur 54 participants rédigeant des dissertations, ceux utilisant l'IA ont montré la plus faible activité cérébrale. Apple, dans son article 'L'illusion de la pensée', reconnaît les limites des modèles actuels. Tahiya Chowdhury du Colby College précise : 'Ce n'est pas un déclin cognitif, ces modèles ne raisonnent pas.' La conclusion est claire : l'IA excelle dans la mémorisation et la reconnaissance de motifs, mais elle ne raisonne pas comme l'esprit humain.