Apple dévoile un modèle de codage révolutionnaire basé sur le langage

Apple just released a weirdly interesting coding language model

Apple dévoile un modèle de codage révolutionnaire basé sur le langage

Apple Research a discrètement publié un nouveau modèle d'IA sur Hugging Face, nommé DiffuCode-7B-cpGRPO, qui présente une approche innovante de génération de code. Contrairement aux modèles traditionnels qui génèrent du texte de gauche à droite, ce modèle peut écrire dans un ordre non séquentiel et améliorer plusieurs sections de code simultanément. Résultat : une génération de code plus rapide, rivalisant avec les meilleurs modèles open-source.

Les détails techniques Pour comprendre cette avancée, il faut saisir quelques concepts clés. Les modèles autoregressifs traditionnels génèrent du texte token par token, de manière séquentielle. La température, un paramètre des LLMs, influence le degré de randomisation des outputs. Les modèles de diffusion, quant à eux, partent d'une image bruitée et l'affinent itérativement, une méthode popularisée par Stable Diffusion.

Apple a combiné ces idées dans DiffuCode-7B-cpGRPO, basé sur le framework DiffuCoder publié le mois dernier. Ce modèle ajuste son comportement via la température : à 1.2, il génère des tokens dans un ordre flexible ; à 0.2, il suit un flux linéaire. Un entraînement supplémentaire (coupled-GRPO) améliore la qualité du code avec moins d'itérations.

Basé sur un modèle Alibaba Fait notable, Apple a utilisé Qwen2.5-7B d'Alibaba comme fondation. Après l'avoir fine-tuné pour le codage (Qwen2.5-Coder-7B), Apple y a intégré un décodeur basé sur la diffusion, puis optimisé son suivi d'instructions. Un dernier entraînement sur 20 000 exemples de code a permis un gain de 4.4% sur les benchmarks, tout en réduisant la dépendance à la génération séquentielle.

Perspectives Bien que surpassant d'autres modèles à diffusion, DiffuCode-7B-cpGRPO reste derrière GPT-4 ou Gemini Diffusion. Ses 7 milliards de paramètres et certains aspects séquentiels limitent encore ses performances. Néanmoins, Apple démontre une approche novatrice en IA générative, posant les bases pour de futures applications concrètes.

Apple ra mắt mô hình ngôn ngữ lập trình độc đáo với khả năng đột phá

Apple Research vừa âm thầm phát hành một mô hình AI mới trên Hugging Face có tên DiffuCode-7B-cpGRPO, mang tính cách mạng trong lĩnh vực sinh mã. Khác với các LLM truyền thống chỉ tạo code theo thứ tự từ trái sang phải, mô hình này có thể viết không tuần tự và tối ưu nhiều đoạn mã cùng lúc, cho tốc độ vượt trội so với các đối thủ open-source hàng đầu.

Hiểu về công nghệ nền tảng Cần nắm ba khái niệm then chốt. Mô hình tự hồi quy (autoregressive) xử lý văn bản token-by-token tuần tự. Tham số "temperature" kiểm soát độ ngẫu nhiên khi chọn token tiếp theo. Trong khi đó, mô hình khuếch tán (diffusion) - thường dùng trong xử lý ảnh - bắt đầu từ nhiễu ngẫu nhiên và dần tinh chỉnh thành output hoàn chỉnh.

Điểm đột phá của Apple DiffuCode-7B-cpGRPO áp dụng phương pháp từ nghiên cứu DiffuCoder công bố tháng trước. Khi tăng nhiệt độ từ 0.2 lên 1.2, mô hình thoát khỏi ràng buộc tuần tự, linh hoạt sinh mã theo cụm. Quy trình coupled-GRPO giúp tạo code chất lượng cao với ít lượt xử lý hơn, đạt hiệu suất tăng 4.4% so với phiên bản tiền nhiệm.

Nền tảng từ Alibaba Đáng chú ý, Apple xây dựng trên nền tảng Qwen2.5-7B mã nguồn mở của Alibaba. Sau khi tinh chỉnh để tối ưu sinh mã (Qwen2.5-Coder-7B), họ tích hợp bộ giải mã diffusion-based và huấn luyện thêm với 20,000 mẫu code chọn lọc. Kết quả cho mã nhanh hơn, cấu trúc tổng thể mạch lạc hơn.

Đánh giá và triển vọng Dù vượt trội so với các mô hình diffusion-based khác, DiffuCode-7B-cpGRPO vẫn chưa bằng GPT-4 hay Gemini Diffusion. Giới hạn 7 tỷ tham số và một số yếu tố tuần tự còn tồn tại. Tuy nhiên, đây là bước tiến quan trọng trong chiến lược AI của Apple, hứa hẹn những ứng dụng thực tế trong tương lai gần.