Un homme révèle comment l'IA inonde Internet de contenus provocateurs à notre insu
Ce que vous voyez sur Internet pourrait ne plus être réel. C'est l'avertissement lancé par le journaliste indépendant James Li sur TikTok. Selon lui, l'IA est désormais si avancée que des créateurs génèrent de fausses personnes pour produire des vidéos provocatrices – et cela rapporte gros. Certains gagneraient même entre 50 000 et 60 000 dollars par mois grâce à ce type de contenu. Avec une industrie en pleine croissance, beaucoup s'inquiètent des conséquences à long terme, craignant que l'IA ne finisse par "pourrir nos cerveaux", comme le dit Li.
Des vidéos truquées inondent nos réseaux. Des créateurs exploitent l'IA pour générer des personnages fictifs et créer des contenus choquants spécialement conçus pour susciter l'indignation. Ces vidéos, souvent partagées massivement, génèrent des revenus publicitaires considérables. Li souligne que cette tendance ne fera que s'amplifier, alimentant les craintes quant à l'impact de l'IA sur notre perception de la réalité.
Les internautes peinent à distinguer le vrai du faux. Une étude de l'Université de Waterloo en 2023 révèle que 39% des participants ne parvenaient pas à différencier des images de personnes réelles de celles générées par IA. Les résultats sont encore plus alarmants pour les vidéos : dans un test impliquant 1,5 million d'utilisateurs, 32% n'ont pas su identifier s'ils conversaient avec un humain ou un chatbot.
Les deepfakes deviennent indétectables. Une étude de la société iProov en février 2025 montre que seulement 0,1% des 2000 participants ont correctement identifié tous les contenus truqués. Les seniors sont particulièrement vulnérables, avec 39% des plus de 65 ans ignorant totalement l'existence des deepfakes. Ces technologies sont désormais utilisées pour escroquer ou diffuser de fausses informations, comme lors de couvertures électorales.
Face à cette menace, les gouvernements réagissent. L'Union Européenne a introduit l'AI Act, première législation majeure sur les risques liés à l'IA. Au total, 69 pays ont proposé plus de 1000 cadres réglementaires. Mais la rapidité du développement technologique soulève des questions sur l'efficacité de ces mesures. Comme le conclut Li, le défi sera de protéger les utilisateurs sans étouffer l'innovation.