Une Nouvelle Méthode Personnalise les LLM en Quelques Secondes, Surpasse l'Affinage : Recherche Révolutionnaire
Publié le 23 juin 2025 dans AI News, une équipe de chercheurs de l'Université Nationale de Singapour, en collaboration avec des chercheurs des universités d'Oxford, du Texas à Austin et de St Gallen, a proposé une méthode révolutionnaire pour personnaliser les grands modèles de langage (LLM) sans avoir recours à l'entraînement conventionnel. Baptisée Drag-and-Drop (DnD) LLMs, cette approche génère des adaptateurs LoRA spécifiques à une tâche directement à partir d'invites, offrant des résultats nettement plus rapides et souvent plus précis que les méthodes traditionnelles.
L'architecture présentée dans l'article de recherche combine un encodeur de texte figé avec un décodeur hyper-convolutif, générant efficacement les poids des adaptateurs à partir des embeddings d'invites. Les chercheurs expliquent que DnD remplace la boucle classique 'données → gradients → poids' par une seule étape de propagation avant, remettant en question l'indispensabilité de la descente de gradient pour la spécialisation des modèles.
Contrairement aux méthodes d'affinage efficaces en paramètres (PEFT) comme LoRA, qui nécessitent des ressources GPU importantes et des entraînements séparés pour chaque nouveau jeu de données, DnD saute complètement cette étape d'optimisation. À la place, elle utilise un générateur entraîné qui mappe un lot d'invites non labellisées vers des mises à jour de poids LoRA en une seule passe avant.
Les résultats sont impressionnants : DnD fournit des paramètres spécifiques à une tâche jusqu'à 12 000 fois plus vite que l'affinage standard, avec des gains de performance allant jusqu'à 30% par rapport aux LoRA de base. Sur des tâches de raisonnement de bon sens, DnD a amélioré la précision sur des jeux de données comme ARC-e de 37,5% à 68,6% et BoolQ de 13,5% à 44,9%. Sur HumanEval, les scores pass@1 sont passés de 17,6% à 32,7%.
En mathématiques, la précision sur GSM8K est passée de 42,9% à 66,3%, tandis que pour les benchmarks multimodaux comme Math-Vision, DnD a surpassé les LoRA entraînés de plus d'un point de pourcentage. La méthode a également démontré une généralisation efficace à travers différents domaines et tailles de modèles, de 0,5B à 7B de paramètres. Dans des tests inter-domaines, la précision sur un jeu de données scientifiques est passée de 35,6% à 45,3%, bien que DnD n'ait été entraîné que sur des données de raisonnement.
Cette avancée ouvre de nouvelles perspectives où les poids deviennent eux-mêmes une nouvelle modalité de données et une cible générative conditionnée par des descripteurs de tâche concis. Les implications pour l'industrie de l'IA pourraient être considérables, en particulier pour les applications nécessitant des adaptations rapides et fréquentes des modèles de langage.