Mémoire des IA : Une étude révèle la capacité réelle de mémorisation des modèles linguistiques

How much information do LLMs really memorize? Now we know, thanks to Meta, Google, Nvidia and Cornell

Mémoire des IA : Une étude révèle la capacité réelle de mémorisation des modèles linguistiques

Une étude conjointe de Meta, Google DeepMind, Cornell University et NVIDIA a enfin répondu à une question cruciale sur les modèles linguistiques (LLM) : quelle partie de leurs données d'entraînement est mémorisée plutôt que généralisée ? Les résultats montrent que les modèles de type GPT ont une capacité de mémorisation fixe d'environ 3,6 bits par paramètre. Cette découverte a des implications majeures pour la compréhension du fonctionnement des IA génératives et les débats juridiques sur les droits d'auteur.

Les LLM comme ChatGPT ou Gemini sont entraînés sur des masses de données textuelles pour développer une compréhension statistique du langage. Cependant, la frontière entre mémorisation et généralisation restait floue. L'étude révèle que cette capacité est limitée et ne dépend pas de la quantité de données d'entraînement - plus un modèle apprend de données, moins il mémorise chaque élément individuel.

Pour mesurer précisément cette mémorisation, les chercheurs ont utilisé une méthode innovante : entraîner des modèles sur des chaînes de bits aléatoires. Comme ces données n'ont aucune structure, toute performance du modèle ne pouvait provenir que de la mémorisation pure. Après des centaines d'expériences avec des modèles de 500K à 1,5 milliard de paramètres, le résultat fut constant : 3,6 bits par paramètre.

Cette capacité reste remarquablement stable quels que soient la taille du modèle ou la précision utilisée. Un modèle en pleine précision (32 bits) atteint légèrement plus (3,83 bits/paramètre), mais l'amélioration est marginale. Plus significativement, l'étude montre qu'augmenter les données d'entraînement réduit la mémorisation par échantillon, ce qui pourrait rassurer sur les risques de reproduction de contenus protégés.

L'étude examine aussi comment la nature des données influence leur mémorisation. Les éléments uniques ou stylisés sont plus susceptibles d'être mémorisés, mais globalement, l'augmentation de la taille des ensembles de données rend les attaques par inférence d'appartenance moins fiables, réduisant les risques pour la vie privée.

Ces résultats fournissent une base quantitative précieuse pour évaluer le comportement des LLM, avec des implications pour la transparence, la conformité et l'éthique en IA. Ils pourraient également influencer les nombreux procès en cours sur l'utilisation de données protégées pour l'entraînement des modèles d'IA.

Bí mật đằng sau trí nhớ của AI: Nghiên cứu đột phá tiết lộ khả năng ghi nhớ thực sự của mô hình ngôn ngữ lớn

Một nghiên cứu hợp tác giữa Meta, Google DeepMind, Đại học Cornell và NVIDIA đã giải đáp bí ẩn lâu nay về mô hình ngôn ngữ lớn (LLM): chúng thực sự ghi nhớ bao nhiêu từ dữ liệu huấn luyện? Kết quả cho thấy các mô hình kiểu GPT có khả năng ghi nhớ cố định khoảng 3.6 bit trên mỗi tham số. Phát hiện này mang ý nghĩa quan trọng cho cả hiểu biết khoa học và các tranh chấp pháp lý về bản quyền.

Các LLM như ChatGPT hay Gemini được huấn luyện trên khối lượng dữ liệu khổng lồ để phát triển hiểu biết thống kê về ngôn ngữ. Tuy nhiên, ranh giới giữa ghi nhớ và khái quát hóa vẫn là điều bí ẩn. Nghiên cứu mới xác nhận khả năng ghi nhớ có giới hạn và không phụ thuộc vào lượng dữ liệu - càng nhiều dữ liệu huấn luyện, mô hình càng ít ghi nhớ từng mẫu cụ thể.

Để đo lường chính xác khả năng ghi nhớ, nhóm nghiên cứu đã dùng phương pháp độc đáo: huấn luyện mô hình trên các chuỗi bit ngẫu nhiên. Vì dữ liệu này không có cấu trúc, bất kỳ khả năng tái tạo nào của mô hình đều phản ánh trực tiếp khả năng ghi nhớ. Sau hàng trăm thí nghiệm với mô hình từ 500K đến 1.5 tỷ tham số, kết quả luôn ổn định ở mức 3.6 bit/tham số.

Khả năng này duy trì ổn định bất kể quy mô mô hình hay độ chính xác. Mô hình dùng độ chính xác đầy đủ (32 bit) đạt hiệu suất nhỉnh hơn (3.83 bit/tham số), nhưng cải thiện không đáng kể. Quan trọng hơn, nghiên cứu chứng minh rằng nhiều dữ liệu huấn luyện hơn sẽ làm giảm khả năng ghi nhớ từng mẫu, giảm nguy cơ sao chép nội dung có bản quyền.

Nghiên cứu cũng phân tích cách đặc điểm dữ liệu ảnh hưởng đến khả năng ghi nhớ. Các nội dung độc đáo hoặc có phong cách riêng dễ bị ghi nhớ hơn, nhưng nhìn chung, tập dữ liệu càng lớn thì các cuộc tấn công suy luận thành viên càng kém hiệu quả, giảm rủi ro về quyền riêng tư.

Những phát hiện này cung cấp thước đo định lượng quý giá để đánh giá hành vi LLM, với ý nghĩa về minh bạch, tuân thủ và đạo đức AI. Chúng cũng có thể ảnh hưởng đến nhiều vụ kiện đang diễn ra về việc sử dụng dữ liệu có bản quyền để huấn luyện mô hình AI.