Les LLM cartographient les débats en ligne pour révéler la complexité des croyances humaines
Une équipe de chercheurs de l'Université de l'Indiana a récemment exploité les modèles de langage à grande échelle (LLM) pour analyser les débats en ligne et créer une cartographie détaillée des croyances humaines. Publiée le 22 juin 2025 dans Nature Human Behaviour, cette étude novatrice révèle des schémas de polarisation et de dissonance cognitive, offrant ainsi un nouvel éclairage sur les mécanismes de prise de décision.
Dirigée par Jisun An, cette recherche s'appuie sur le modèle S-BERT pour générer un 'espace d'embedding de croyances' multidimensionnel. Contrairement aux approches traditionnelles limitées à des sujets spécifiques, cette méthode permet d'analyser quantitativement les relations entre des milliers de croyances diverses au sein d'un même cadre d'étude.
L'étude démontre que les choix humains sont influencés par la 'dissonance relative' - un concept clé où les individus privilégient les croyances causant le moins d'inconfort par rapport à leurs convictions existantes. Ce phénomène explique pourquoi certaines informations sont acceptées ou rejetées de manière polarisée selon les groupes sociaux.
Les applications potentielles sont vastes : conception de messages ciblés, élaboration de politiques publiques ou campagnes de sensibilisation dans les domaines de la santé et de l'environnement. Les chercheurs prévoient d'étendre leurs travaux à des plateformes comme Reddit pour affiner leur modèle.
Ce projet s'inscrit dans le cadre plus large de BRAIN (Belief Resonance and AI Narratives), une initiative visant à comprendre comment les systèmes de croyances interagissent avec les nouvelles informations. Les futures recherches exploreront également le lien entre les croyances exprimées en ligne et les comportements réels dans les communautés virtuelles.