Réseaux sociaux : les jurys d'experts plébiscités pour la modération des contenus, révèle une étude
Une étude récente révèle que les Américains considèrent les petits jurys d'experts comme les modérateurs les plus légitimes pour traiter les contenus potentiellement trompeurs sur les réseaux sociaux. Publiée dans PNAS Nexus et menée par Cameron Martel et son équipe, cette enquête souligne cependant que les grands jurys représentatifs ou politiquement équilibrés bénéficient d'une légitimité comparable lorsqu'ils possèdent des qualifications minimales.
L'étude, réalisée durant l'été 2023 via la plateforme YouGov auprès de 3 000 résidents américains, explore les préférences du public en matière de modération de contenu. Les participants devaient évaluer la légitimité de différents modérateurs dans des situations où ils n'étaient pas d'accord avec leurs décisions concernant des contenus potentiellement trompeurs.
Neuf options étaient proposées, allant des jurys composés de vérificateurs de faits professionnels, journalistes ou experts, à des groupes de non-experts sélectionnés aléatoirement, en passant par des algorithmes informatiques ou même un simple pile ou face. Les jurys d'experts comptaient systématiquement 3 membres, tandis que les jurys de non-experts variaient en taille (3, 30 ou 3 000 membres) et en niveau de qualification requis.
Les résultats montrent une nette préférence pour les experts spécialisés par rapport aux non-experts ou aux algorithmes. Cependant, les grands jurys représentatifs nationalement ou politiquement équilibrés, prenant leurs décisions par discussion et disposant de qualifications minimales, étaient perçus comme tout aussi légitimes que les petits jurys d'experts indépendants.
L'étude révèle également des différences politiques : les Républicains percevaient les experts comme moins légitimes que les Démocrates, mais les préféraient toujours aux non-experts lorsque les jurys de profanes étaient petits et sans qualifications. En revanche, l'idée de confier la modération aux dirigeants des plateformes sociales a suscité peu d'enthousiasme, étant jugée aussi peu attractive qu'un simple pile ou face.
Ces résultats offrent des pistes concrètes pour les plateformes sociales et les régulateurs souhaitant concevoir des systèmes de modération inspirant confiance aux utilisateurs. L'étude souligne l'importance de trouver un équilibre entre expertise et représentativité dans la gouvernance des contenus en ligne.
Plus d'informations : Cameron Martel et al, Perceived legitimacy of layperson and expert content moderators, PNAS Nexus (2025). DOI : 10.1093/pnasnexus/pgaf111
Informations sur la revue : PNAS Nexus
Fourni par PNAS Nexus