Meta AI rend les recherches publiques – mais tous ses utilisateurs en sont-ils conscients ?
Meta, la société mère de Facebook, a rendu publiques les recherches effectuées via son outil d'intelligence artificielle, Meta AI, sans que tous les utilisateurs ne s'en rendent compte. Les requêtes et les résultats sont affichés sur un flux public, exposant potentiellement des informations sensibles. Un expert en sécurité internet a qualifié cette situation de "problème majeur d'expérience utilisateur et de sécurité". Certaines publications peuvent être facilement retracées jusqu'à des comptes de réseaux sociaux, révélant ainsi des recherches personnelles comme des demandes de génération de personnages légèrement vêtus ou d'aide pour tricher aux examens. Meta affirme que les discussions sont privées par défaut et que les utilisateurs peuvent retirer leurs publications ultérieurement. Un message avertit les utilisateurs avant le partage : "Les requêtes que vous publiez sont visibles par tous... Évitez de partager des informations personnelles ou sensibles." Cependant, il n'est pas clair si les utilisateurs comprennent que leurs recherches sont publiées dans le flux "Découvrir" de l'application et du site web Meta AI, et qu'elles pourraient être liées à leurs autres comptes sociaux via leurs noms d'utilisateur et photos de profil. La BBC a trouvé plusieurs exemples de personnes téléchargeant des photos de questions d'examen et demandant des réponses à Meta AI. Une conversation publique portait sur des questions de genre et de transition. D'autres recherches concernaient des personnages féminins ou anthropomorphiques peu vêtus. Une recherche, traçable à un compte Instagram, demandait à Meta AI de générer une image d'un personnage animé en sous-vêtements. Lancé plus tôt cette année, Meta AI est accessible via Facebook, Instagram et WhatsApp, ainsi que via une application autonome avec un flux "Découvrir" public. Les utilisateurs peuvent choisir de rendre leurs recherches privées dans les paramètres de leur compte. Dans un communiqué d'avril, Meta a affirmé que les utilisateurs contrôlent ce qu'ils partagent. Cependant, Rachel Tobac, PDG de Social Proof Security, a souligné que les attentes des utilisateurs ne correspondent pas à la réalité, créant un risque de sécurité. Meta est également sous pression pour lutter contre les applications de "dénudification" et défend son outil AI "optionnel" sur WhatsApp.