Pornographie infantile générée par IA en hausse : un juriste explique les défis légaux et les solutions potentielles

AI-generated child pornography is surging − a legal scholar explains why the fight against it is complicated and how the law could catch up

Pornographie infantile générée par IA en hausse : un juriste explique les défis légaux et les solutions potentielles

L'Internet Watch Foundation, une organisation surveillant les contenus d'abus sexuels sur mineurs en ligne, a constaté une augmentation marquée des vidéos pornographiques hyperréalistes générées par IA au premier semestre 2025. Ces contenus, parfois dérivés d'images de vrais enfants ou entièrement synthétiques, posent un défi complexe aux autorités légales. Wayne Unger, professeur de droit à l'Université Quinnipiac, analyse pourquoi la lutte contre ce phénomène est juridiquement délicate et comment la loi pourrait évoluer.

La Cour suprême a implicitement statué que les images pornographiques générées par ordinateur à partir de photos d'enfants réels sont illégales. Les deepfakes pornographiques de mineurs créés via l'IA relèvent probablement de cette jurisprudence. Cependant, le statut juridique des contenus entièrement synthétiques reste flou. En tant qu'expert du droit constitutionnel et des technologies émergentes, Unger souligne que ces images indifférenciables de la réalité bouleversent le cadre légal existant.

Depuis des décennies, les forces de l'ordre collaborent avec les géants technologiques pour identifier et supprimer les contenus d'abus sexuels sur mineurs (CSAM). Mais l'avènement des outils d'IA générative accessibles au grand public complique considérablement ces efforts. En 1982, l'arrêt New York v. Ferber a établi que la pornographie infantile ne bénéficiait pas de la protection du Premier Amendement, permettant sa criminalisation. Toutefois, le jugement Ashcroft v. Free Speech Coalition (2002) a invalidé l'interdiction des images générées par ordinateur, créant un vide juridique pour les CSAM purement synthétiques.

Un problème croissant concerne les deepfakes pornographiques non consensuels mêlant réalité et virtuel. Des visages de mineurs, prélevés sur les réseaux sociaux, sont greffés sur des corps dans des poses explicites. Une enquête du Center for Democracy and Technology révèle que 15% des élèves et 11% des enseignants connaissent au moins un deepfake sexualisé impliquant leur école. Le Take It Down Act, promulgué sous l'administration Trump, tente de répondre à cette menace, mais le cadre juridique reste insuffisant face à l'évolution technologique.

Nội dung khiêu dâm trẻ em tạo bởi AI bùng nổ: Chuyên gia pháp lý giải thích thách thức và hướng đi cho luật pháp

Tổ chức Internet Watch Foundation chuyên theo dõi nội dung lạm dụng tình dục trẻ em trực tuyến đã ghi nhận sự gia tăng đáng kể các video khiêu dâm siêu thực tạo bởi AI trong nửa đầu năm 2025. Những nội dung này, một phần sử dụng hình ảnh trẻ em thật và phần khác hoàn toàn tổng hợp, đặt ra thách thức phức tạp cho cơ quan pháp lý. Wayne Unger, giáo sư luật tại Đại học Quinnipiac, phân tích lý do cuộc chiến chống lại hiện tượng này còn nhiều phức tạp và cách luật pháp có thể bắt kịp.

Tòa án Tối cao Hoa Kỳ đã ngầm kết luận rằng hình ảnh khiêu dâm tạo bằng máy tính từ ảnh trẻ em thật là bất hợp pháp. Các deepfake khiêu dâm trẻ em tạo bởi AI gần như chắc chắn thuộc phạm vi phán quyết này. Tuy nhiên, tình trạng pháp lý của nội dung hoàn toàn do AI tạo ra vẫn chưa rõ ràng. Là học giả luật nghiên cứu giao thoa giữa hiến pháp và công nghệ mới, Unger nhận định những hình ảnh giả nhưng không thể phân biệt với thật đang thách thức hiện trạng pháp lý.

Trong nhiều thập kỷ, lực lượng thực thi pháp luật đã phối hợp với các tập đoàn công nghệ lớn để xác định và gỡ bỏ nội dung lạm dụng tình dục trẻ em (CSAM). Nhưng sự xuất hiện của công cụ AI dễ tiếp cận đã tạo ra thách thức mới. Năm 1982, vụ án New York v. Ferber xác định nội dung khiêu dâm trẻ em không được bảo vệ bởi Tu chính án Thứ Nhất, cho phép hình sự hóa CSAM truyền thống. Tuy nhiên, phán quyết Ashcroft v. Free Speech Coalition năm 2002 đã bãi bỏ lệnh cấm với nội dung tạo bằng máy tính, tạo ra khoảng trống pháp lý cho CSAM tổng hợp.

Vấn đề nổi cộm hiện nay là deepfake khiêu dâm không đồng thuận kết hợp giữa thực và ảo. Khuôn mặt trẻ vị thành niên từ mạng xã hội được ghép vào thân hình khiêu gợi. Khảo sát của Center for Democracy and Technology cho thấy 15% học sinh và 11% giáo viên biết ít nhất một deepfake nội dung nhạy cảm liên quan đến trường họ. Đạo luật Take It Down được ký bởi cựu Tổng thống Trump là nỗ lực ứng phó, nhưng khung pháp lý vẫn chưa đủ để theo kịp tốc độ phát triển công nghệ.