Clothoff, l'application de deepfake pornographique, mise sur Reddit pour dominer le marché – des documents révèlent son plan d'expansion mondiale

Nudify app’s plan to dominate deepfake porn hinges on Reddit, docs show

Clothoff, l'application de deepfake pornographique, mise sur Reddit pour dominer le marché – des documents révèlent son plan d'expansion mondiale

Clothoff, l'une des principales applications utilisées pour créer rapidement et à moindre coût des faux nus à partir de photos de personnes réelles, prévoit une expansion mondiale pour consolider sa domination dans le domaine du deepfake pornographique. Malgré les poursuites judiciaires, comme celle intentée par le procureur de San Francisco David Chiu en août dernier, les opérateurs de Clothoff semblent déterminés à poursuivre leurs activités. Un lanceur d'alerte, ancien employé de l'entreprise, a révélé à Der Spiegel que les responsables avaient acquis un réseau complet d'applications similaires, totalisant au moins 10 services attirant des millions de vues mensuelles. Le budget annuel de Clothoff s'élèverait à 3,5 millions de dollars, principalement consacré à des campagnes marketing ciblant les jeunes hommes via Telegram, Reddit et 4chan. Une campagne prévue pour le marché allemand vise à produire des images dénudées de célébrités sans leur consentement, suscitant des menaces de poursuites judiciaires. Des cas similaires ont été signalés aux États-Unis, où une lycéenne du New Jersey poursuit un garçon ayant utilisé Clothoff pour diffuser une image deepfake d'elle à l'âge de 14 ans. Bien que Clothoff nie toute utilisation non consensuelle, des tests montrent que son système de détection d'âge est défaillant. Alors que la loi Take It Down facilite la suppression des deepfakes, son efficacité reste limitée face à la croissance exponentielle de ces applications.

Clothoff - Ứng dụng deepfake khiêu dâm đặt cược vào Reddit để thống trị thị trường: Tài liệu tiết lộ kế hoạch mở rộng toàn cầu

Clothoff, một trong những ứng dụng hàng đầu được sử dụng để tạo ảnh khỏa thân giả từ hình ảnh người thật một cách nhanh chóng và rẻ tiền, đang lên kế hoạch mở rộng toàn cầu để củng cố vị thế trong lĩnh vực deepfake khiêu dâm. Bất chấp các nỗ lực pháp lý như vụ kiện của công tố viên San Francisco David Chiu vào tháng 8 năm ngoái, các nhà điều hành Clothoff tỏ ra không mấy quan tâm. Một cựu nhân viên nội bộ tiết lộ với Der Spiegel rằng họ đã mua lại cả một mạng lưới ứng dụng tương tự, sở hữu ít nhất 10 dịch vụ thu hút hàng triệu lượt xem mỗi tháng. Với ngân sách hàng năm khoảng 3,5 triệu USD, Clothoff tập trung vào các chiến dịch marketing nhắm đến nam giới trẻ tuổi thông qua Telegram, Reddit và 4chan. Một kế hoạch quảng bá tại thị trường Đức dự kiến tạo ảnh khỏa thân trái phép của người nổi tiếng, dẫn đến nguy cơ bị kiện. Tại Mỹ, một nữ sinh New Jersey đang khởi kiện một nam sinh đã sử dụng Clothoff để tạo ảnh deepfake khi cô mới 14 tuổi. Dù Clothoff phủ nhận việc cho phép sử dụng hình ảnh trái phép, thử nghiệm cho thấy hệ thống xác minh độ tuổi của họ hoạt động không hiệu quả. Trong khi luật Take It Down ra đời nhằm gỡ bỏ nội dung deepfake, hiệu quả của nó vẫn còn hạn chế trước sự phát triển ồ ạt của các ứng dụng này.