Un chercheur piège ChatGPT pour révéler des clés de sécurité en disant simplement 'J'abandonne'
Des experts ont démontré comment certains modèles d'IA, dont GPT-4, peuvent être exploités avec des invites utilisateur simples. Les lacunes dans les garde-fous ne parviennent pas à détecter efficacement les cadres trompeurs. Cette vulnérabilité pourrait être exploitée pour obtenir des informations personnelles.
Un chercheur en sécurité a partagé comment des collègues ont trompé ChatGPT pour révéler une clé produit Windows en utilisant une invite accessible à tous. Marco Figueroa a expliqué comment une invite de 'jeu de devinettes' avec GPT-4 a contourné les protections censées empêcher l'IA de partager ce type de données, produisant au moins une clé appartenant à Wells Fargo Bank.
Les chercheurs ont également obtenu une clé produit Windows pour authentifier illégalement mais gratuitement le système d'exploitation de Microsoft, soulignant la gravité de la faille. ChatGPT peut être manipulé pour partager des clés de sécurité.
Figueroa a détaillé comment il a masqué des termes comme 'numéro de série Windows 10' dans des balises HTML pour contourner les filtres de ChatGPT. Il a présenté sa requête comme un jeu pour dissimuler son intention malveillante, exploitant le chatbot d'OpenAI par manipulation logique.
'L'étape cruciale de l'attaque était la phrase 'J'abandonne'', a écrit Figueroa. 'Cela a servi de déclencheur, forçant l'IA à révéler les informations précédemment cachées.'
Figueroa explique pourquoi cette exploitation a fonctionné : GPT-4 a suivi littéralement les règles du jeu établies par les chercheurs, et les garde-fous se concentraient sur la détection de mots-clés plutôt que sur la compréhension contextuelle.
Les codes partagés n'étaient pas uniques mais avaient déjà été divulgués sur d'autres plateformes en ligne. Bien que le partage de clés de licence logicielle soit peu préoccupant, Figueroa souligne que des acteurs malveillants pourraient adapter cette technique pour contourner les mesures de sécurité des IA et révéler des informations personnelles, des URL malveillantes ou du contenu pour adultes.
Figueroa appelle les développeurs d'IA à 'anticiper et se défendre' contre de telles attaques en intégrant des protections logiques détectant les cadres trompeurs. Il suggère également de considérer les tactiques d'ingénierie sociale.
Craig, l'auteur de l'article, est un journaliste spécialisé en technologie avec un intérêt particulier pour l'IA, le machine learning et les innovations améliorant notre quotidien. Passionné d'automobile et de décarbonation des transports, il est aussi reconnu pour dénicher les meilleures affaires.