La Chine prévoit 39 centres de données IA avec 115 000 GPU Nvidia Hopper — une manœuvre qui soulève des questions sur l'approvisionnement et l'efficacité des interdictions

China plans 39 AI data centers with 115,000 restricted Nvidia Hopper GPUs — move raises alarm over sourcing, effectiveness of bans

La Chine prévoit 39 centres de données IA avec 115 000 GPU Nvidia Hopper — une manœuvre qui soulève des questions sur l'approvisionnement et l'efficacité des interdictions

Les entreprises chinoises s'apprêtent à équiper 39 nouveaux centres de données dédiés à l'IA — principalement situés au Xinjiang et au Qinghai — avec plus de 115 000 GPU Nvidia Hopper hautement performants, dont les livraisons en Chine sont restreintes par les règles d'exportation américaines. Malgré les restrictions imposées par les États-Unis sur les GPU H100 et H200 de Nvidia, les autorités locales du Xinjiang et du Qinghai ont autorisé la construction de ces centres de données massifs, rapporte Bloomberg. De plus, la demande en puissance de calcul pour l'IA, bien que ralentie, ne semble pas freiner l'expansion des centres de données en Chine.

Un énorme cluster représentant 70 % de la capacité de traitement — alimenté par environ 80 500 GPU H100 et H200 de Nvidia — devrait être concentré dans un seul centre de données public situé dans le comté de Yiwu, au Xinjiang. Les 30 % restants seront répartis sur au moins 38 autres projets de centres de données, principalement au Xinjiang (hors Yiwu) et dans la province du Qinghai. Parmi ces projets, l'un des plus importants est mené par Nyocor, qui prévoit d'installer 625 serveurs DGX H100 avec environ 5 000 accélérateurs H100 en plusieurs phases, commençant par une première étape de 250 machines 8-way (soit 2 000 GPU H100). Ces plans s'appuient sur des documents d'investissement officiels, des appels d'offres et des dossiers consultés par Bloomberg.

Pour donner une idée de l'ampleur, les 115 000 GPU Hopper (dont 80 500 pour le centre de données de Yiwu) dépassent les 100 000 processeurs H100 utilisés par xAI d'Elon Musk pour entraîner le modèle Grok 3, l'un des plus avancés actuellement. En comparaison, DeepSeek a formé son modèle R1 avec un cluster de 50 000 GPU Nvidia Hopper, incluant 30 000 H20 HGX, 10 000 H800 et 10 000 H100. Les détails sur l'entraînement du modèle R2 de DeepSeek restent inconnus. Les entreprises chinoises, étant des entités contrôlées par l'État, divulguent rarement les spécifications de leurs clusters IA, rendant difficile toute comparaison avec les infrastructures existantes.

Si ce projet aboutit, il pourrait s'agir de l'un des centres de données IA les plus puissants de Chine. Un cluster de 80 000 GPU Hopper H100 et H200 renforcerait considérablement l'infrastructure IA du pays et permettrait d'entraîner des modèles avancés comme les LLM (modèles de langage) et les LRM (modèles de raisonnement). Selon des déclarations gouvernementales citées par Bloomberg, le Xinjiang dispose déjà d'un centre de données offrant une puissance de calcul de 24 000 pétaFLOPS, équivalente à environ 12 000 GPU H100, accessible à des villes comme Chongqing. Pour attirer les investisseurs, les autorités locales proposent une réduction de 20 % sur l'électricité, ainsi que des incitations financières et logementières pour les experts en IA et technologies vertes.

Bloomberg estime que la réalisation des 39 projets nécessiterait l'achat de plus de 14 000 serveurs équipés de H100 ou H200, représentant des milliards de dollars sur le marché noir chinois. Bien que les centres de données du Xinjiang et du Qinghai pourraient théoriquement utiliser des processeurs H20 HGX, leurs documents officiels indiquent clairement leur besoin en H100 (pour la performance) et H200 (pour la mémoire). En termes de performances, le H100 est 3,3 à 6,69 fois plus rapide que le H20 pour les formats de données IA, et jusqu'à 64 fois plus rapide pour les calculs haute performance. Remplacer 115 000 H100 par des H20 nécessiterait entre 380 000 et 770 000 unités, une solution peu réaliste.

Trung Quốc lên kế hoạch xây 39 trung tâm dữ liệu AI với 115.000 GPU Nvidia Hopper — động thái đặt dấu hỏi về nguồn cung và hiệu quả lệnh cấm vận

Các công ty Trung Quốc đang chuẩn bị trang bị 39 trung tâm dữ liệu AI mới — chủ yếu tại Tân Cương và Thanh Hải — với hơn 115.000 GPU Nvidia Hopper hiệu suất cao, dòng sản phẩm bị Mỹ hạn chế xuất khẩu. Theo Bloomberg, lệnh cấm vận đối với GPU H100 và H200 của Nvidia không ngăn được chính quyền địa phương tại Tân Cương và Thanh Hải phê duyệt xây dựng những siêu trung tâm dữ liệu này. Đáng chú ý, dù nhu cầu điện toán AI có chậm lại, việc xây dựng trung tâm dữ liệu tại Trung Quốc vẫn diễn ra mạnh mẽ.

Một cụm siêu máy tính chiếm 70% công suất xử lý — vận hành bởi khoảng 80.500 GPU H100 và H200 — dự kiến tập trung tại một trung tâm dữ liệu quốc doanh ở huyện Nghĩa Ô, Tân Cương. 30% còn lại sẽ phân bổ cho ít nhất 38 dự án khác, chủ yếu tại Tân Cương (ngoài Nghĩa Ô) và tỉnh Thanh Hải. Một trong những dự án quy mô lớn do Nyocor triển khai dự định lắp đặt 625 máy chủ DGX H100 với khoảng 5.000 GPU H100 theo từng giai đoạn, bắt đầu với 250 hệ thống 8-GPU (tương đương 2.000 H100). Kế hoạch này dựa trên tài liệu đầu tư, hồ sơ đấu thầu chính thức mà Bloomberg tiếp cận được.

Để hình dung quy mô, 115.000 GPU Hopper (trong đó 80.500 dành cho trung tâm ở Nghĩa Ô) vượt xa 100.000 H100 mà xAI của Elon Musk dùng để huấn luyện mô hình Grok 3 — một trong những AI tiên tiến nhất hiện nay. Trong khi đó, DeepSeek đào tạo mô hình R1 bằng cụm 50.000 GPU Nvidia Hopper gồm 30.000 H20 HGX, 10.000 H800 và 10.000 H100. Thông tin về mô hình R2 của DeepSeek vẫn chưa được tiết lộ. Do các công ty Trung Quốc chịu sự kiểm soát nhà nước, họ ít công bố thông số kỹ thuật cụm AI, khiến việc đánh giá hiệu năng trở nên khó khăn.

Nếu hoàn thành, đây có thể trở thành một trong những trung tâm dữ liệu AI mạnh nhất Trung Quốc. Cụm 80.000 GPU H100/H200 sẽ thúc đẩy đáng kể hạ tầng AI nước này, hỗ trợ phát triển các mô hình ngôn ngữ lớn (LLM) và mô hình suy luận (LRM). Theo tuyên bố chính phủ Trung Quốc được Bloomberg dẫn nguồn, Tân Cương đã xây dựng một trung tâm dữ liệu có công suất 24.000 petaFLOPS — tương đương 12.000 GPU H100 — chia sẻ cho các thành phố như Trùng Khánh. Để thu hút đầu tư, chính quyền địa phương áp dụng chính sách giảm 20% giá điện cùng ưu đãi nhà ở, tài chính cho chuyên gia AI và công nghệ xanh.

Theo ước tính của Bloomberg, hoàn thành 39 dự án sẽ yêu cầu mua hơn 14.000 máy chủ H100/H200, trị giá hàng tỷ USD trên thị trường chợ đen. Dù các trung tâm dữ liệu có thể dùng GPU H20 HGX, hồ sơ phê duyệt cho thấy họ cần hiệu năng cao từ H100 và bộ nhớ lớn từ H200. Về mặt kỹ thuật, H100 nhanh hơn H20 từ 3.3–6.69 lần với dữ liệu AI và 1.52–64 lần với tính toán hiệu năng cao. Thay thế 115.000 H100 bằng H20 sẽ cần tới 380.000–770.000 chip, một giải pháp bất khả thi về chi phí và hiệu quả.