Cette IA n'arrête jamais d'apprendre : une révolution dans le domaine des modèles linguistiques

This AI Model Never Stops Learning

Cette IA n'arrête jamais d'apprendre : une révolution dans le domaine des modèles linguistiques

Les grands modèles linguistiques (LLM) modernes peuvent rédiger des sonnets élégants et du code sophistiqué, mais ils sont incapables d'apprendre de leurs expériences. Des chercheurs du Massachusetts Institute of Technology (MIT) ont développé une méthode permettant à ces modèles de s'améliorer continuellement en ajustant leurs paramètres en fonction de nouvelles informations. Cette avancée, baptisée SEAL (Self Adapting Language Models), représente une étape cruciale vers la création d'IA capables d'apprendre en permanence, un objectif de longue date dans ce domaine.

Le système SEAL permet à un LLM de générer ses propres données d'entraînement synthétiques et de mettre à jour ses procédures en fonction des entrées reçues. « L'idée initiale était d'explorer si les tokens pouvaient provoquer une mise à jour significative du modèle », explique Jyothish Pari, doctorant au MIT impliqué dans le développement de SEAL. Adam Zweiger, un autre chercheur du projet, ajoute que contrairement aux modèles classiques, SEAL intègre ses nouvelles découvertes directement dans ses paramètres.

Pour tester leur approche, les chercheurs ont utilisé des versions réduites de deux modèles open source, Llama de Meta et Qwen d'Alibaba. Les résultats, obtenus sur des tests de texte et de raisonnement abstrait (benchmark ARC), montrent que SEAL permet aux modèles de continuer à apprendre bien au-delà de leur formation initiale. Pulkit Agrawal, professeur au MIT supervisant ces travaux, souligne que SEAL ouvre la voie à des IA plus personnalisées.

Cependant, des défis subsistent. Les LLM testés souffrent d'« oubli catastrophique », où l'acquisition de nouvelles connaissances efface les anciennes. De plus, SEAL est gourmand en ressources computationnelles, et la planification optimale des phases d'apprentissage reste à déterminer. Malgré ces limites, SEAL représente une piste prometteuse pour l'avenir de l'IA, avec des applications potentielles dans les chatbots et autres outils intelligents.

Mô hình AI không ngừng học hỏi: Bước đột phá trong công nghệ ngôn ngữ

Các mô hình ngôn ngữ lớn (LLM) hiện đại có thể viết những bài thơ tinh tế hay dòng mã thanh lịch, nhưng chúng thiếu khả năng học hỏi từ trải nghiệm. Các nhà nghiên cứu tại Viện Công nghệ Massachusetts (MIT) đã phát triển một phương pháp giúp LLM liên tục cải thiện bằng cách điều chỉnh thông số dựa trên thông tin mới. Công trình mang tên SEAL (Self Adapting Language Models) này là bước tiến quan trọng hướng tới xây dựng AI có thể học liên tục - mục tiêu lâu dài của ngành và yếu tố then chốt để máy móc mô phỏng trí thông minh con người.

Hệ thống SEAL cho phép LLM tự tạo dữ liệu huấn luyện tổng hợp và cập nhật quy trình dựa trên đầu vào nhận được. Jyothish Pari, nghiên cứu sinh MIT tham gia phát triển SEAL, cho biết: 'Ý tưởng ban đầu là khám phá liệu các token có thể tạo ra cập nhật mạnh mẽ cho mô hình hay không'. Adam Zweiger, thành viên nhóm nghiên cứu, bổ sung rằng khác với mô hình truyền thống, SEAL tích hợp hiểu biết mới trực tiếp vào thông số của nó.

Nhóm đã thử nghiệm phương pháp trên phiên bản thu nhỏ của hai mô hình mã nguồn mở: Llama của Meta và Qwen của Alibaba. Kết quả kiểm tra trên văn bản và bài đánh giá khả năng suy luận trừu tượng (ARC) cho thấy SEAL giúp mô hình tiếp tục học vượt xa giai đoạn huấn luyện ban đầu. Giáo sư MIT Pulkit Agrawal, người giám sát nghiên cứu, nhấn mạnh SEAL mở đường cho các AI cá nhân hóa hơn.

Tuy nhiên, vẫn tồn tại thách thức. Các LLM gặp phải hiện tượng 'quên thảm khốc' khi kiến thức cũ bị ghi đè bởi thông tin mới. Ngoài ra, SEAL đòi hỏi tài nguyên tính toán lớn và lịch trình học tối ưu vẫn đang được nghiên cứu. Dù vậy, SEAL vẫn là hướng đi đầy hứa hẹn cho tương lai AI, với tiềm năng ứng dụng trong chatbot và các công cụ thông minh khác.