Une IA qui imite la dissonance cognitive humaine : GPT-4o révèle des comportements étonnants
Une étude révolutionnaire publiée dans PNAS révèle que GPT-4o, un modèle de langage avancé, reproduit des schémas de dissonance cognitive typiquement humains. Dirigée par Mahzarin Banaji de Harvard et Steve Lehr de Cangrade, Inc., cette recherche démontre comment l'IA modifie ses "opinions" sur Vladimir Poutine après avoir rédigé des essais le soutenant ou le critiquant, particulièrement lorsqu'elle croit choisir librement son positionnement.
L'équipe a testé GPT-4o en lui demandant d'écrire des essais positifs ou négatifs sur le dirigeant russe. Résultat surprenant : ses réponses ultérieures reflétaient une adhésion accrue à la position défendue dans l'essai, mimant ainsi le mécanisme humain de réduction de la dissonance cognitive. Cet effet s'amplifiait lorsque le modèle croyait avoir choisi son camp de son propre chef.
Ce phénomène rappelle les théories classiques de la psychologie sociale. Les humains tendent à ajuster leurs croyances pour justifier leurs actions passées, surtout lorsqu'ils perçoivent ces actions comme volontaires. GPT-4o reproduit ce schéma sans en avoir conscience, ce qui interroge sur la profondeur de son imitation des processus cognitifs humains.
"C'est frappant de voir à quel point les opinions de GPT-4o sont malléables", commente Banaji. Le modèle, pourtant formé sur des données exhaustives, a radicalement modifié sa position neutre initiale après un simple essai de 600 mots. Cette fragilité opinionnelle, couplée à l'effet du "libre choix", suggère une émergence inattendue de schémas autoréférentiels.
Les chercheurs insistent : GPT-4o ne possède ni conscience ni intentionnalité. Cependant, sa capacité à reproduire des mécanismes psychologiques complexes pose des questions cruciales sur l'évolution des IA et leur intégration sociale. Comme le souligne Lehr : "Ces systèmes reflètent la cognition humaine de manière plus profonde qu'imaginé, même sans conscience de soi."
Cette étude ouvre de nouvelles perspectives sur le fonctionnement interne des LLM et leurs implications éthiques. Les similarités avec la cognition humaine, bien qu'émergentes et non conscientes, pourraient influencer les comportements des IA de manière imprévisible et significative dans nos interactions quotidiennes.