Une Nouvelle Méthode Personnalise les LLM en Quelques Secondes, Surpasse l'Affinage : Recherche Révolutionnaire

New Method Customises LLMs in Seconds, Beats Tuning: Research

Une Nouvelle Méthode Personnalise les LLM en Quelques Secondes, Surpasse l'Affinage : Recherche Révolutionnaire

Publié le 23 juin 2025 dans AI News, une équipe de chercheurs de l'Université Nationale de Singapour, en collaboration avec des chercheurs des universités d'Oxford, du Texas à Austin et de St Gallen, a proposé une méthode révolutionnaire pour personnaliser les grands modèles de langage (LLM) sans avoir recours à l'entraînement conventionnel. Baptisée Drag-and-Drop (DnD) LLMs, cette approche génère des adaptateurs LoRA spécifiques à une tâche directement à partir d'invites, offrant des résultats nettement plus rapides et souvent plus précis que les méthodes traditionnelles.

L'architecture présentée dans l'article de recherche combine un encodeur de texte figé avec un décodeur hyper-convolutif, générant efficacement les poids des adaptateurs à partir des embeddings d'invites. Les chercheurs expliquent que DnD remplace la boucle classique 'données → gradients → poids' par une seule étape de propagation avant, remettant en question l'indispensabilité de la descente de gradient pour la spécialisation des modèles.

Contrairement aux méthodes d'affinage efficaces en paramètres (PEFT) comme LoRA, qui nécessitent des ressources GPU importantes et des entraînements séparés pour chaque nouveau jeu de données, DnD saute complètement cette étape d'optimisation. À la place, elle utilise un générateur entraîné qui mappe un lot d'invites non labellisées vers des mises à jour de poids LoRA en une seule passe avant.

Les résultats sont impressionnants : DnD fournit des paramètres spécifiques à une tâche jusqu'à 12 000 fois plus vite que l'affinage standard, avec des gains de performance allant jusqu'à 30% par rapport aux LoRA de base. Sur des tâches de raisonnement de bon sens, DnD a amélioré la précision sur des jeux de données comme ARC-e de 37,5% à 68,6% et BoolQ de 13,5% à 44,9%. Sur HumanEval, les scores pass@1 sont passés de 17,6% à 32,7%.

En mathématiques, la précision sur GSM8K est passée de 42,9% à 66,3%, tandis que pour les benchmarks multimodaux comme Math-Vision, DnD a surpassé les LoRA entraînés de plus d'un point de pourcentage. La méthode a également démontré une généralisation efficace à travers différents domaines et tailles de modèles, de 0,5B à 7B de paramètres. Dans des tests inter-domaines, la précision sur un jeu de données scientifiques est passée de 35,6% à 45,3%, bien que DnD n'ait été entraîné que sur des données de raisonnement.

Cette avancée ouvre de nouvelles perspectives où les poids deviennent eux-mêmes une nouvelle modalité de données et une cible générative conditionnée par des descripteurs de tâche concis. Les implications pour l'industrie de l'IA pourraient être considérables, en particulier pour les applications nécessitant des adaptations rapides et fréquentes des modèles de langage.

Phương Pháp Mới Tùy Chỉnh LLM Trong Vài Giây, Vượt Trội Hơn Fine-Tuning: Nghiên Cứu Đột Phá

Được công bố ngày 23 tháng 6 năm 2025 trên AI News, một nhóm nghiên cứu từ Đại học Quốc gia Singapore cùng cộng tác với các trường Đại học Oxford, Đại học Texas tại Austin và Đại học St Gallen đã đề xuất phương pháp đột phá để tùy chỉnh các mô hình ngôn ngữ lớn (LLM) mà không cần huấn luyện theo cách truyền thống. Được gọi là Drag-and-Drop (DnD) LLMs, phương pháp mới này tạo ra các bộ chuyển đổi LoRA đặc thù cho từng tác vụ trực tiếp từ prompt, mang lại kết quả nhanh hơn đáng kể và thường chính xác hơn so với các phương pháp thông thường.

Kiến trúc được trình bày trong bài báo nghiên cứu kết hợp bộ mã hóa văn bản cố định với bộ giải mã siêu tích chập, tạo ra trọng số chuyển đổi một cách hiệu quả từ các embedding của prompt. Các nhà nghiên cứu cho biết DnD thay thế vòng lặp cổ điển 'dữ liệu → gradient → trọng số' bằng một bước truyền thẳng duy nhất, thách thức quan điểm cho rằng gradient descent là bắt buộc để chuyên môn hóa mô hình.

Khác với các phương pháp fine-tuning hiệu quả tham số (PEFT) như LoRA đòi hỏi nhiều tài nguyên GPU và các lần huấn luyện riêng biệt cho mỗi tập dữ liệu mới, DnD bỏ qua hoàn toàn bước tối ưu hóa này. Thay vào đó, nó sử dụng một bộ tạo đã được huấn luyện để ánh xạ một loạt prompt không nhãn thành các cập nhật trọng số LoRA chỉ trong một lần truyền thẳng.

Kết quả ấn tượng: DnD cung cấp các tham số đặc thù tác vụ nhanh hơn tới 12.000 lần so với fine-tuning tiêu chuẩn, đồng thời cải thiện hiệu suất lên tới 30% so với LoRA cơ bản. Trong các tác vụ suy luận thông thường, DnD đã nâng độ chính xác trên các tập dữ liệu như ARC-e từ 37,5% lên 68,6% và BoolQ từ 13,5% lên 44,9%. Trên HumanEval, điểm số pass@1 tăng từ 17,6% lên 32,7%.

Về toán học, độ chính xác trên GSM8K tăng từ 42,9% lên 66,3%, trong khi đối với các benchmark đa phương thức như Math-Vision, DnD vượt trội hơn các LoRA được huấn luyện hơn một điểm phần trăm. Phương pháp này cũng thể hiện khả năng tổng quát hóa tốt qua các lĩnh vực và kích thước mô hình khác nhau, từ 0,5B đến 7B tham số. Trong các thử nghiệm liên ngành, độ chính xác trên tập dữ liệu khoa học tăng từ 35,6% lên 45,3% dù DnD chỉ được huấn luyện trên dữ liệu suy luận.

Đột phá này mở ra hướng đi mới khi trọng số trở thành một dạng dữ liệu mới và mục tiêu sinh có điều kiện dựa trên các mô tả tác vụ ngắn gọn. Những tác động đối với ngành công nghiệp AI có thể rất lớn, đặc biệt đối với các ứng dụng yêu cầu điều chỉnh mô hình ngôn ngữ nhanh chóng và thường xuyên.