Nouveaux serveurs Amazon EC2 P6e-GB200 UltraServers boostés par les GPU NVIDIA Grace Blackwell pour des performances IA ultimes

New Amazon EC2 P6e-GB200 UltraServers accelerated by NVIDIA Grace Blackwell GPUs for the highest AI performance

Nouveaux serveurs Amazon EC2 P6e-GB200 UltraServers boostés par les GPU NVIDIA Grace Blackwell pour des performances IA ultimes

Amazon Web Services (AWS) annonce aujourd'hui la disponibilité générale des serveurs Amazon Elastic Compute Cloud (EC2) P6e-GB200 UltraServers, accélérés par les GPU NVIDIA GB200 NVL72 pour offrir les meilleures performances en matière d'entraînement et d'inférence d'IA. Ces serveurs révolutionnaires connectent plusieurs instances EC2 via une interconnexion dédiée à haute bande passante et faible latence.

L'architecture repose sur les Superpuce NVIDIA Grace Blackwell, combinant deux GPU NVIDIA Blackwell à coeurs tensoriels et un CPU NVIDIA Grace basé sur l'architecture Arm, le tout relié par l'interconnexion NVLink-C2C. Chaque Superpuce fournit une puissance de calcul de 10 pétaflops FP8 (sans sparsité) et jusqu'à 372 Go de mémoire HBM3e.

La colocalisation du GPU et du CPU dans un même module de calcul augmente considérablement la bande passante par rapport aux instances EC2 P5en actuelles. Les P6e-GB200 UltraServers permettent d'accéder à 72 GPU NVIDIA Blackwell dans un seul domaine NVLink, offrant 360 pétaflops FP8 et 13,4 To de mémoire HBM3e.

Propulsés par le système AWS Nitro, ces serveurs sont déployés dans des UltraClusters EC2 pour une montée en charge sécurisée de dizaines de milliers de GPU. Ils fournissent jusqu'à 28,8 Tbps de réseau via Elastic Fabric Adapter (EFAv4), couplé à NVIDIA GPUDirect RDMA pour des communications GPU-GPU à faible latence.

Disponibles en configurations de 36 à 72 GPU sous NVLink, les P6e-GB200 UltraServers sont idéaux pour les charges de travail IA les plus intensives, comme l'entraînement de modèles frontières à l'échelle du billion de paramètres. Ils permettent de développer des applications génératives avancées : génération de code, vidéo, image, reconnaissance vocale, etc.

Les utilisateurs peuvent réserver ces serveurs via EC2 Capacity Blocks for ML dans la Dallas Local Zone (us-east-1-dfw-2a), extension de la région US East (N. Virginia). Le paiement s'effectue intégralement lors de la réservation.

Pour le déploiement, AWS propose plusieurs options : console de gestion, CLI ou SDKs. Les AWS Deep Learning AMIs fournissent des environnements préconfigurés avec PyTorch, JAX et autres frameworks. L'intégration avec Amazon SageMaker Hyperpod et Amazon EKS simplifie la gestion du cycle de vie des instances.

Amazon EC2 P6e-GB200 UltraServers mới với GPU NVIDIA Grace Blackwell mang lại hiệu suất AI đỉnh cao

Amazon Web Services (AWS) hôm nay công bố tính khả dụng chung của dòng máy chủ Amazon EC2 P6e-GB200 UltraServers, được tăng tốc bởi GPU NVIDIA GB200 NVL72 để đạt hiệu suất cao nhất cho huấn luyện và suy luận AI. Các máy chủ này kết nối nhiều instance EC2 thông qua hệ thống liên kết tăng tốc chuyên dụng với băng thông cao và độ trễ thấp.

Kiến trúc dựa trên Siêu chip NVIDIA Grace Blackwell, tích hợp hai GPU tensor core NVIDIA Blackwell và CPU NVIDIA Grace dùng kiến trúc Arm, kết nối qua công nghệ NVLink-C2C. Mỗi siêu chip cung cấp 10 petaflops hiệu năng FP8 (không bảo toàn) và 372GB bộ nhớ HBM3e.

Việc đặt chung GPU và CPU trong một module tính toán làm tăng đáng kể băng thông so với thế hệ EC2 P5en hiện tại. P6e-GB200 UltraServers cho phép truy cập tới 72 GPU Blackwell trong một miền NVLink duy nhất, đạt 360 petaflops FP8 và 13.4TB bộ nhớ HBM3e.

Vận hành bởi hệ thống AWS Nitro, các máy chủ này được triển khai trong cụm UltraClusters EC2 để mở rộng quy mô an toàn lên hàng chục ngàn GPU. Chúng hỗ trợ mạng lên đến 28.8 Tbps qua Elastic Fabric Adapter (EFAv4), kết hợp với NVIDIA GPUDirect RDMA để giao tiếp GPU-GPU tốc độ cao.

Có sẵn với cấu hình từ 36 đến 72 GPU NVLink, P6e-GB200 UltraServers lý tưởng cho các tác vụ AI đòi hỏi cao như huấn luyện mô hình tiên tiến quy mô nghìn tỷ tham số. Chúng hỗ trợ phát triển ứng dụng AI sáng tạo: tạo mã, video, hình ảnh, nhận dạng giọng nói...

Người dùng có thể đặt trước thông qua EC2 Capacity Blocks for ML tại Dallas Local Zone (us-east-1-dfw-2a), mở rộng từ vùng US East (N. Virginia). Thanh toán được thực hiện toàn bộ khi đặt chỗ.

Để triển khai, AWS cung cấp nhiều lựa chọn: bảng điều khiển, CLI hoặc SDKs. AWS Deep Learning AMIs cung cấp môi trường đã cài đặt sẵn PyTorch, JAX và các framework khác. Tích hợp với Amazon SageMaker Hyperpod và Amazon EKS giúp quản lý vòng đời instance dễ dàng hơn.