Pornographie infantile générée par IA en hausse : un juriste explique les défis légaux et les solutions potentielles
L'Internet Watch Foundation, une organisation surveillant les contenus d'abus sexuels sur mineurs en ligne, a constaté une augmentation marquée des vidéos pornographiques hyperréalistes générées par IA au premier semestre 2025. Ces contenus, parfois dérivés d'images de vrais enfants ou entièrement synthétiques, posent un défi complexe aux autorités légales. Wayne Unger, professeur de droit à l'Université Quinnipiac, analyse pourquoi la lutte contre ce phénomène est juridiquement délicate et comment la loi pourrait évoluer.
La Cour suprême a implicitement statué que les images pornographiques générées par ordinateur à partir de photos d'enfants réels sont illégales. Les deepfakes pornographiques de mineurs créés via l'IA relèvent probablement de cette jurisprudence. Cependant, le statut juridique des contenus entièrement synthétiques reste flou. En tant qu'expert du droit constitutionnel et des technologies émergentes, Unger souligne que ces images indifférenciables de la réalité bouleversent le cadre légal existant.
Depuis des décennies, les forces de l'ordre collaborent avec les géants technologiques pour identifier et supprimer les contenus d'abus sexuels sur mineurs (CSAM). Mais l'avènement des outils d'IA générative accessibles au grand public complique considérablement ces efforts. En 1982, l'arrêt New York v. Ferber a établi que la pornographie infantile ne bénéficiait pas de la protection du Premier Amendement, permettant sa criminalisation. Toutefois, le jugement Ashcroft v. Free Speech Coalition (2002) a invalidé l'interdiction des images générées par ordinateur, créant un vide juridique pour les CSAM purement synthétiques.
Un problème croissant concerne les deepfakes pornographiques non consensuels mêlant réalité et virtuel. Des visages de mineurs, prélevés sur les réseaux sociaux, sont greffés sur des corps dans des poses explicites. Une enquête du Center for Democracy and Technology révèle que 15% des élèves et 11% des enseignants connaissent au moins un deepfake sexualisé impliquant leur école. Le Take It Down Act, promulgué sous l'administration Trump, tente de répondre à cette menace, mais le cadre juridique reste insuffisant face à l'évolution technologique.