La Chine prévoit 39 centres de données IA avec 115 000 GPU Nvidia Hopper — une manœuvre qui soulève des questions sur l'approvisionnement et l'efficacité des interdictions
Les entreprises chinoises s'apprêtent à équiper 39 nouveaux centres de données dédiés à l'IA — principalement situés au Xinjiang et au Qinghai — avec plus de 115 000 GPU Nvidia Hopper hautement performants, dont les livraisons en Chine sont restreintes par les règles d'exportation américaines. Malgré les restrictions imposées par les États-Unis sur les GPU H100 et H200 de Nvidia, les autorités locales du Xinjiang et du Qinghai ont autorisé la construction de ces centres de données massifs, rapporte Bloomberg. De plus, la demande en puissance de calcul pour l'IA, bien que ralentie, ne semble pas freiner l'expansion des centres de données en Chine.
Un énorme cluster représentant 70 % de la capacité de traitement — alimenté par environ 80 500 GPU H100 et H200 de Nvidia — devrait être concentré dans un seul centre de données public situé dans le comté de Yiwu, au Xinjiang. Les 30 % restants seront répartis sur au moins 38 autres projets de centres de données, principalement au Xinjiang (hors Yiwu) et dans la province du Qinghai. Parmi ces projets, l'un des plus importants est mené par Nyocor, qui prévoit d'installer 625 serveurs DGX H100 avec environ 5 000 accélérateurs H100 en plusieurs phases, commençant par une première étape de 250 machines 8-way (soit 2 000 GPU H100). Ces plans s'appuient sur des documents d'investissement officiels, des appels d'offres et des dossiers consultés par Bloomberg.
Pour donner une idée de l'ampleur, les 115 000 GPU Hopper (dont 80 500 pour le centre de données de Yiwu) dépassent les 100 000 processeurs H100 utilisés par xAI d'Elon Musk pour entraîner le modèle Grok 3, l'un des plus avancés actuellement. En comparaison, DeepSeek a formé son modèle R1 avec un cluster de 50 000 GPU Nvidia Hopper, incluant 30 000 H20 HGX, 10 000 H800 et 10 000 H100. Les détails sur l'entraînement du modèle R2 de DeepSeek restent inconnus. Les entreprises chinoises, étant des entités contrôlées par l'État, divulguent rarement les spécifications de leurs clusters IA, rendant difficile toute comparaison avec les infrastructures existantes.
Si ce projet aboutit, il pourrait s'agir de l'un des centres de données IA les plus puissants de Chine. Un cluster de 80 000 GPU Hopper H100 et H200 renforcerait considérablement l'infrastructure IA du pays et permettrait d'entraîner des modèles avancés comme les LLM (modèles de langage) et les LRM (modèles de raisonnement). Selon des déclarations gouvernementales citées par Bloomberg, le Xinjiang dispose déjà d'un centre de données offrant une puissance de calcul de 24 000 pétaFLOPS, équivalente à environ 12 000 GPU H100, accessible à des villes comme Chongqing. Pour attirer les investisseurs, les autorités locales proposent une réduction de 20 % sur l'électricité, ainsi que des incitations financières et logementières pour les experts en IA et technologies vertes.
Bloomberg estime que la réalisation des 39 projets nécessiterait l'achat de plus de 14 000 serveurs équipés de H100 ou H200, représentant des milliards de dollars sur le marché noir chinois. Bien que les centres de données du Xinjiang et du Qinghai pourraient théoriquement utiliser des processeurs H20 HGX, leurs documents officiels indiquent clairement leur besoin en H100 (pour la performance) et H200 (pour la mémoire). En termes de performances, le H100 est 3,3 à 6,69 fois plus rapide que le H20 pour les formats de données IA, et jusqu'à 64 fois plus rapide pour les calculs haute performance. Remplacer 115 000 H100 par des H20 nécessiterait entre 380 000 et 770 000 unités, une solution peu réaliste.