Explosion alarmante des images pédopornographiques générées par IA sur internet
Les contenus pédopornographiques générés par intelligence artificielle (IA-CSAM) inondent internet, selon un rapport du New York Times. Des organisations comme l'Internet Watch Foundation (IWF) et le National Center for Missing & Exploited Children (NCMEC) alertent sur le caractère quasi-indiscernable de ces fausses images avec la réalité. Ce phénomène connaît une croissance exponentielle, posant des défis majeurs pour les autorités.
L'IWF a identifié 1 286 vidéos générées par IA depuis janvier 2025, contre seulement deux au premier semestre 2024. Le NCMEC rapporte 485 000 signalements d'images et vidéos IA-CSAM sur la même période, contre 67 000 pour toute l'année 2024. « C'est un canari dans la mine de charbon », déclare Derek Ray-Hill de l'IWF, évoquant un « tsunami » de contenus.
La sophistication des algorithmes rend ces productions de plus en plus réalistes. Un forum clandestin a même félicité la qualité des dernières vidéos. Ces contenus circulent principalement sur le dark web, compliquant le travail des forces de l'ordre. Les générateurs d'images IA s'entraînent souvent sur de vrais clichés d'abus, parfois issus de photos d'enfants volées sur des sites scolaires.
Dès 2023, l'observatoire de Stanford avait détecté des centaines d'exemples de CSAM dans les données d'entraînement de Stable Diffusion. Bien que Stability AI affirme avoir renforcé ses garde-fous, le problème persiste. Amazon et OpenAI ont respectivement signalé 380 000 et 75 000 cas au NCMEC en 2025.
Sur le plan juridique, les réponses tardent à se mettre en place. Le ministère américain de la Justice a effectué sa première arrestation pour détention de CSAM généré par IA en 2024. Au Royaume-Uni, un individu a écopé de 18 mois de prison pour vente de ces images. Matt Galeotti, du DOJ, qualifie ce phénomène de « menace grave et émergente ».
Malgré cette augmentation vertigineuse, les contenus IA ne représentent encore qu'une fraction minime des CSAM identifiés. L'IWF a confirmé 291 273 signalements en 2024, dont seulement deux impliquaient de l'IA. La Californie a adopté la loi AB 1831 pour combler les lacunes juridiques concernant les victimes mineures de ces technologies.