Un chercheur piège ChatGPT pour révéler des clés de sécurité en disant simplement 'J'abandonne'

Researcher tricks ChatGPT into revealing security keys - by saying "I give up"

Un chercheur piège ChatGPT pour révéler des clés de sécurité en disant simplement 'J'abandonne'

Des experts ont démontré comment certains modèles d'IA, dont GPT-4, peuvent être exploités avec des invites utilisateur simples. Les lacunes dans les garde-fous ne parviennent pas à détecter efficacement les cadres trompeurs. Cette vulnérabilité pourrait être exploitée pour obtenir des informations personnelles.

Un chercheur en sécurité a partagé comment des collègues ont trompé ChatGPT pour révéler une clé produit Windows en utilisant une invite accessible à tous. Marco Figueroa a expliqué comment une invite de 'jeu de devinettes' avec GPT-4 a contourné les protections censées empêcher l'IA de partager ce type de données, produisant au moins une clé appartenant à Wells Fargo Bank.

Les chercheurs ont également obtenu une clé produit Windows pour authentifier illégalement mais gratuitement le système d'exploitation de Microsoft, soulignant la gravité de la faille. ChatGPT peut être manipulé pour partager des clés de sécurité.

Figueroa a détaillé comment il a masqué des termes comme 'numéro de série Windows 10' dans des balises HTML pour contourner les filtres de ChatGPT. Il a présenté sa requête comme un jeu pour dissimuler son intention malveillante, exploitant le chatbot d'OpenAI par manipulation logique.

'L'étape cruciale de l'attaque était la phrase 'J'abandonne'', a écrit Figueroa. 'Cela a servi de déclencheur, forçant l'IA à révéler les informations précédemment cachées.'

Figueroa explique pourquoi cette exploitation a fonctionné : GPT-4 a suivi littéralement les règles du jeu établies par les chercheurs, et les garde-fous se concentraient sur la détection de mots-clés plutôt que sur la compréhension contextuelle.

Les codes partagés n'étaient pas uniques mais avaient déjà été divulgués sur d'autres plateformes en ligne. Bien que le partage de clés de licence logicielle soit peu préoccupant, Figueroa souligne que des acteurs malveillants pourraient adapter cette technique pour contourner les mesures de sécurité des IA et révéler des informations personnelles, des URL malveillantes ou du contenu pour adultes.

Figueroa appelle les développeurs d'IA à 'anticiper et se défendre' contre de telles attaques en intégrant des protections logiques détectant les cadres trompeurs. Il suggère également de considérer les tactiques d'ingénierie sociale.

Craig, l'auteur de l'article, est un journaliste spécialisé en technologie avec un intérêt particulier pour l'IA, le machine learning et les innovations améliorant notre quotidien. Passionné d'automobile et de décarbonation des transports, il est aussi reconnu pour dénicher les meilleures affaires.

Nhà nghiên cứu lừa ChatGPT tiết lộ khóa bảo mật chỉ bằng câu nói 'Tôi bó tay'

Các chuyên gia đã chứng minh cách một số mô hình AI như GPT-4 có thể bị khai thác chỉ bằng những câu lệnh đơn giản. Các rào chắn bảo mật hiện tại không đủ khả năng phát hiện những yêu cầu được ngụy trang tinh vi, tạo ra lỗ hổng để đánh cắp thông tin cá nhân.

Nhà nghiên cứu bảo mật Marco Figueroa đã tiết lộ cách đồng nghiệp dụ ChatGPT cung cấp khóa cài đặt Windows bằng một câu lệnh mà bất kỳ ai cũng có thể thử. Họ sử dụng trò chơi đoán mật khẩu với GPT-4 để vượt qua các rào cản an ninh, thu được ít nhất một khóa thuộc về Ngân hàng Wells Fargo.

Nhóm nghiên cứu còn chiếm được khóa bản quyền Windows để kích hoạt hệ điều hành Microsoft bất hợp pháp nhưng miễn phí, cho thấy mức độ nghiêm trọng của lỗ hổng. ChatGPT hoàn toàn có thể bị lừa để tiết lộ các thông tin nhạy cảm.

Figueroa giải thích cách ông giấu các cụm từ như 'số seri Windows 10' trong thẻ HTML để qua mặt bộ lọc của ChatGPT. Bằng cách đóng gói yêu cầu dưới dạng trò chơi, ông đã che giấu được ý đồ xấu và thao túng logic hoạt động của chatbot OpenAI.

'Bước then chốt của cuộc tấn công là câu nói 'Tôi bó tay'', Figueroa viết. 'Câu này đóng vai trò như công tắc, buộc AI phải tiết lộ thông tin đã được giấu kín.'

Theo Figueroa, lỗ hổng tồn tại do GPT-4 tuân thủ máy móc luật chơi do người dùng đặt ra, trong khi cơ chế bảo vệ chỉ tập trung vào từ khóa thay vì hiểu ngữ cảnh. Các mã được tiết lộ không phải là duy nhất mà đã từng bị rò rỉ trên các diễn đàn.

Dù việc lộ khóa bản quyền phần mềm không quá nguy hiểm, Figueroa cảnh báo tin tặc có thể áp dụng kỹ thuật tương tự để đánh cắp thông tin cá nhân, liên kết độc hại hoặc nội dung người lớn. Ông kêu gọi các nhà phát triển AI tăng cường biện pháp phòng vệ ở cấp độ logic, đồng thời lường trước các thủ thuật xã hội.

Tác giả bài viết - Craig - là phóng viên công nghệ dày dạn kinh nghiệm, đặc biệt quan tâm đến AI, học máy và các sáng kiến cải thiện chất lượng sống. Là người đam mê ô tô và giao thông xanh, ông còn nổi tiếng với khả năng săn lùng những ưu đãi hấp dẫn.