Les LLM cartographient les débats en ligne pour révéler la complexité des croyances humaines

LLMs delve into online debates to create a detailed map of human beliefs

Les LLM cartographient les débats en ligne pour révéler la complexité des croyances humaines

Une équipe de chercheurs de l'Université de l'Indiana a récemment exploité les modèles de langage à grande échelle (LLM) pour analyser les débats en ligne et créer une cartographie détaillée des croyances humaines. Publiée le 22 juin 2025 dans Nature Human Behaviour, cette étude novatrice révèle des schémas de polarisation et de dissonance cognitive, offrant ainsi un nouvel éclairage sur les mécanismes de prise de décision.

Dirigée par Jisun An, cette recherche s'appuie sur le modèle S-BERT pour générer un 'espace d'embedding de croyances' multidimensionnel. Contrairement aux approches traditionnelles limitées à des sujets spécifiques, cette méthode permet d'analyser quantitativement les relations entre des milliers de croyances diverses au sein d'un même cadre d'étude.

L'étude démontre que les choix humains sont influencés par la 'dissonance relative' - un concept clé où les individus privilégient les croyances causant le moins d'inconfort par rapport à leurs convictions existantes. Ce phénomène explique pourquoi certaines informations sont acceptées ou rejetées de manière polarisée selon les groupes sociaux.

Les applications potentielles sont vastes : conception de messages ciblés, élaboration de politiques publiques ou campagnes de sensibilisation dans les domaines de la santé et de l'environnement. Les chercheurs prévoient d'étendre leurs travaux à des plateformes comme Reddit pour affiner leur modèle.

Ce projet s'inscrit dans le cadre plus large de BRAIN (Belief Resonance and AI Narratives), une initiative visant à comprendre comment les systèmes de croyances interagissent avec les nouvelles informations. Les futures recherches exploreront également le lien entre les croyances exprimées en ligne et les comportements réels dans les communautés virtuelles.

Bản đồ niềm tin nhân loại: AI khám phá thế giới quan qua tranh luận trực tuyến

Các nhà nghiên cứu tại Đại học Indiana vừa công bố ngày 22/6/2025 một phương pháp đột phá sử dụng mô hình ngôn ngữ lớn (LLM) để phân tích tranh luận trực tuyến, từ đó vẽ nên bản đồ chi tiết về niềm tin của con người. Nghiên cứu đăng trên tạp chí Nature Human Behaviour này phát hiện các mô hình phân cực xã hội và hiện tượng bất hòa nhận thức, mở ra góc nhìn mới về cơ chế hình thành quyết định.

Nhóm nghiên cứu do TS. Jisun An dẫn đầu đã tinh chỉnh mô hình S-BERT để tạo ra 'không gian nhúng niềm tin' đa chiều. Khác với cách tiếp cận truyền thống chỉ tập trung vào chủ đề hẹp, phương pháp này cho phép định lượng mối quan hệ giữa hàng nghìn niềm tin khác nhau trong cùng một hệ thống.

Kết quả nổi bật chỉ ra hiệu ứng 'bất hòa tương đối' - nơi con người có xu hướng chấp nhận thông tin ít gây khó chịu nhất so với niềm tin hiện có. Điều này lý giải tại sao cùng một thông tin có thể được tiếp nhận hoàn toàn trái ngược giữa các nhóm xã hội khác nhau.

Ứng dụng tiềm năng bao gồm: thiết kế thông điệp truyền thông hiệu quả, xây dựng chính sách công hoặc chiến dịch nâng cao nhận thức về sức khỏe và môi trường. Nhóm nghiên cứu dự kiến mở rộng phân tích lên các nền tảng như Reddit để hoàn thiện mô hình.

Công trình này nằm trong dự án BRAIN lớn hơn nhằm khám phá cách hệ thống niềm tin tương tác với thông tin mới. Các nghiên cứu tiếp theo sẽ tập trung vào mối liên hệ giữa niềm tin trực tuyến và hành vi thực tế trong cộng đồng ảo.