Clothoff, l'application de deepfake pornographique, mise sur Reddit pour dominer le marché – des documents révèlent son plan d'expansion mondiale
Clothoff, l'une des principales applications utilisées pour créer rapidement et à moindre coût des faux nus à partir de photos de personnes réelles, prévoit une expansion mondiale pour consolider sa domination dans le domaine du deepfake pornographique. Malgré les poursuites judiciaires, comme celle intentée par le procureur de San Francisco David Chiu en août dernier, les opérateurs de Clothoff semblent déterminés à poursuivre leurs activités. Un lanceur d'alerte, ancien employé de l'entreprise, a révélé à Der Spiegel que les responsables avaient acquis un réseau complet d'applications similaires, totalisant au moins 10 services attirant des millions de vues mensuelles. Le budget annuel de Clothoff s'élèverait à 3,5 millions de dollars, principalement consacré à des campagnes marketing ciblant les jeunes hommes via Telegram, Reddit et 4chan. Une campagne prévue pour le marché allemand vise à produire des images dénudées de célébrités sans leur consentement, suscitant des menaces de poursuites judiciaires. Des cas similaires ont été signalés aux États-Unis, où une lycéenne du New Jersey poursuit un garçon ayant utilisé Clothoff pour diffuser une image deepfake d'elle à l'âge de 14 ans. Bien que Clothoff nie toute utilisation non consensuelle, des tests montrent que son système de détection d'âge est défaillant. Alors que la loi Take It Down facilite la suppression des deepfakes, son efficacité reste limitée face à la croissance exponentielle de ces applications.