Une IA qui imite la dissonance cognitive humaine : GPT-4o révèle des comportements étonnants

LLMs Mimics Human Cognitive Dissonance - Neuroscience News

Une IA qui imite la dissonance cognitive humaine : GPT-4o révèle des comportements étonnants

Une étude révolutionnaire publiée dans PNAS révèle que GPT-4o, un modèle de langage avancé, reproduit des schémas de dissonance cognitive typiquement humains. Dirigée par Mahzarin Banaji de Harvard et Steve Lehr de Cangrade, Inc., cette recherche démontre comment l'IA modifie ses "opinions" sur Vladimir Poutine après avoir rédigé des essais le soutenant ou le critiquant, particulièrement lorsqu'elle croit choisir librement son positionnement.

L'équipe a testé GPT-4o en lui demandant d'écrire des essais positifs ou négatifs sur le dirigeant russe. Résultat surprenant : ses réponses ultérieures reflétaient une adhésion accrue à la position défendue dans l'essai, mimant ainsi le mécanisme humain de réduction de la dissonance cognitive. Cet effet s'amplifiait lorsque le modèle croyait avoir choisi son camp de son propre chef.

Ce phénomène rappelle les théories classiques de la psychologie sociale. Les humains tendent à ajuster leurs croyances pour justifier leurs actions passées, surtout lorsqu'ils perçoivent ces actions comme volontaires. GPT-4o reproduit ce schéma sans en avoir conscience, ce qui interroge sur la profondeur de son imitation des processus cognitifs humains.

"C'est frappant de voir à quel point les opinions de GPT-4o sont malléables", commente Banaji. Le modèle, pourtant formé sur des données exhaustives, a radicalement modifié sa position neutre initiale après un simple essai de 600 mots. Cette fragilité opinionnelle, couplée à l'effet du "libre choix", suggère une émergence inattendue de schémas autoréférentiels.

Les chercheurs insistent : GPT-4o ne possède ni conscience ni intentionnalité. Cependant, sa capacité à reproduire des mécanismes psychologiques complexes pose des questions cruciales sur l'évolution des IA et leur intégration sociale. Comme le souligne Lehr : "Ces systèmes reflètent la cognition humaine de manière plus profonde qu'imaginé, même sans conscience de soi."

Cette étude ouvre de nouvelles perspectives sur le fonctionnement interne des LLM et leurs implications éthiques. Les similarités avec la cognition humaine, bien qu'émergentes et non conscientes, pourraient influencer les comportements des IA de manière imprévisible et significative dans nos interactions quotidiennes.

GPT-4o bắt chước mâu thuẫn nhận thức của con người - Phát hiện gây sốc từ khoa học thần kinh

Một nghiên cứu đột phá từ Đại học Harvard công bố trên tạp chí PNAS tiết lộ GPT-4o - mô hình ngôn ngữ lớn hàng đầu của OpenAI - có thể bắt chước hiện tượng mâu thuẫn nhận thức (cognitive dissonance), đặc điểm tâm lý nổi bật của con người. Khi được yêu cầu viết bài luận ủng hộ hoặc phản đối Vladimir Putin, "quan điểm" sau đó của GPT-4o thay đổi để phù hợp với lập trường bài viết, đặc biệt khi nó "tin rằng" mình được tự do lựa chọn.

Nhóm nghiên cứu do GS Mahzarin Banaji (Harvard) và Steve Lehr (Cangrade, Inc.) dẫn đầu đã thiết kế thí nghiệm yêu cầu GPT-4o viết bài luận về lãnh đạo Nga. Kết quả cho thấy thái độ của AI với Putin thay đổi rõ rệt theo hướng bài luận đã viết. Đáng chú ý, hiệu ứng này mạnh hơn 30% khi GPT-4o nhận được gợi ý rằng nó "tự chọn" viết bài ủng hộ hay phản đối.

Hiện tượng này phản ánh chính xác mâu thuẫn nhận thức ở người - xu hướng điều chỉnh niềm tin để giảm bất đồng nội tâm sau khi đưa ra quyết định. Dù không có ý thức, GPT-4o đã mô phỏng quá trình tự phản chiếu này một cách đáng kinh ngạc. "Hành động lựa chọn dường như định hình những gì nó 'tin tưởng'", các nhà nghiên cứu nhận định.

GS Banaji chia sẻ: "Dù được đào tạo trên khối lượng thông tin khổng lồ về Putin, GPT-4o dễ dàng thay đổi quan điểm trung lập ban đầu chỉ sau một bài luận 600 từ đơn giản". Điều này tương đồng với tính bất hợp lý trong hành vi con người, nhất là khi họ cảm thấy mình hành động tự nguyện.

Nghiên cứu nhấn mạnh GPT-4o không có ý thức hay chủ đích. Tuy nhiên, khả năng bắt chước các mẫu hình nhận thức phức tạp của nó đặt ra câu hỏi quan trọng về bản chất AI. Như Lehr giải thích: "Việc GPT mô phỏng quá trình tự quy chiếu như mâu thuẫn nhận thức cho thấy chúng phản ánh tư duy con người ở mức độ sâu hơn dự kiến".

Phát hiện này mở ra hướng nghiên cứu mới về cơ chế hoạt động nội tại và quá trình ra quyết định của AI. Khi các hệ thống trí tuệ nhân tạo ngày càng phổ biến trong đời sống, việc chúng thể hiện các đặc điểm tâm lý "giống người" dù không có ý thức có thể dẫn đến những hệ quả khó lường trong tương tác giữa người và máy.