Explosion alarmante des images pédopornographiques générées par IA sur internet

Reports indicate a massive uptick in AI-generated CSAM throughout the internet

Explosion alarmante des images pédopornographiques générées par IA sur internet

Les contenus pédopornographiques générés par intelligence artificielle (IA-CSAM) inondent internet, selon un rapport du New York Times. Des organisations comme l'Internet Watch Foundation (IWF) et le National Center for Missing & Exploited Children (NCMEC) alertent sur le caractère quasi-indiscernable de ces fausses images avec la réalité. Ce phénomène connaît une croissance exponentielle, posant des défis majeurs pour les autorités.

L'IWF a identifié 1 286 vidéos générées par IA depuis janvier 2025, contre seulement deux au premier semestre 2024. Le NCMEC rapporte 485 000 signalements d'images et vidéos IA-CSAM sur la même période, contre 67 000 pour toute l'année 2024. « C'est un canari dans la mine de charbon », déclare Derek Ray-Hill de l'IWF, évoquant un « tsunami » de contenus.

La sophistication des algorithmes rend ces productions de plus en plus réalistes. Un forum clandestin a même félicité la qualité des dernières vidéos. Ces contenus circulent principalement sur le dark web, compliquant le travail des forces de l'ordre. Les générateurs d'images IA s'entraînent souvent sur de vrais clichés d'abus, parfois issus de photos d'enfants volées sur des sites scolaires.

Dès 2023, l'observatoire de Stanford avait détecté des centaines d'exemples de CSAM dans les données d'entraînement de Stable Diffusion. Bien que Stability AI affirme avoir renforcé ses garde-fous, le problème persiste. Amazon et OpenAI ont respectivement signalé 380 000 et 75 000 cas au NCMEC en 2025.

Sur le plan juridique, les réponses tardent à se mettre en place. Le ministère américain de la Justice a effectué sa première arrestation pour détention de CSAM généré par IA en 2024. Au Royaume-Uni, un individu a écopé de 18 mois de prison pour vente de ces images. Matt Galeotti, du DOJ, qualifie ce phénomène de « menace grave et émergente ».

Malgré cette augmentation vertigineuse, les contenus IA ne représentent encore qu'une fraction minime des CSAM identifiés. L'IWF a confirmé 291 273 signalements en 2024, dont seulement deux impliquaient de l'IA. La Californie a adopté la loi AB 1831 pour combler les lacunes juridiques concernant les victimes mineures de ces technologies.

Báo động: Nội dung ấu dâm AI tràn ngập internet với tốc độ chóng mặt

Tài liệu ấu dâm được tạo bằng trí tuệ nhân tạo (AI-CSAM) đang tràn ngập internet, theo báo cáo từ The New York Times. Các tổ chức như Internet Watch Foundation (IWF) và Trung tâm Quốc gia về Trẻ em Mất tích & Bị bóc lột (NCMEC) cảnh báo rằng những hình ảnh giả mạo này gần như không thể phân biệt với thật. Sự gia tăng theo cấp số nhân đang đặt ra thách thức lớn cho cơ quan chức năng.

Tính đến năm 2025, IWF đã xác định 1.286 video AI-CSAM, so với chỉ 2 video trong nửa đầu 2024. NCMEC ghi nhận 485.000 báo cáo hình ảnh/video AI-CSAM trong 6 tháng đầu năm nay, tăng đột biến so với 67.000 ca cả năm 2024. Ông Derek Ray-Hill (IWF) ví hiện tượng này như "chim hoàng yến trong mỏ than", báo trước "cơn sóng thần" nội dung độc hại.

Công nghệ AI ngày càng tinh vi khiến hình ảnh giả trở nên chân thực khó tin. Một diễn đàn ngầm thậm chí đã khen ngợi chất lượng của các video mới nhất. Phần lớn nội dung này được phân phối qua dark web, gây khó khăn cho việc truy vết tội phạm. Các công cụ tạo ảnh AI thường được huấn luyện bằng hình ảnh thật, kể cả ảnh trẻ em lấy từ website trường học hoặc mạng xã hội.

Từ năm 2023, nghiên cứu của Stanford đã phát hiện hàng trăm mẫu CSAM trong dữ liệu đào tạo của Stable Diffusion. Dù Stability AI khẳng định đã tăng cường kiểm soát, vấn đề vẫn tồn tại. Riêng Amazon và OpenAI đã báo cáo lần lượt 380.000 và 75.000 trường hợp AI-CSAM tới NCMEC trong năm 2025.

Hệ thống pháp lý đang chậm thích ứng. Bộ Tư pháp Mỹ mới chỉ bắt giữ kẻ đầu tiên tàng trữ AI-CSAM vào 2024. Tại Anh, một đối tượng bị kết án 18 tháng tù vì bán ảnh ấu dâm tạo bằng AI. Ông Matt Galeotti (Bộ Tư pháp Mỹ) nhận định đây là "mối đe dọa nghiêm trọng và mới nổi".

Dù tăng mạnh, nội dung AI hiện chỉ chiếm phần nhỏ trong tổng số CSAM được phát hiện. IWF xác nhận 291.273 báo cáo năm 2024, nhưng chỉ 2 trường hợp liên quan AI. California đã thông qua luật AB 1831 nhằm bịt kẽ hở pháp lý bảo vệ nạn nhân trẻ em.