NVIDIA présente DGX SuperPOD alimenté par Blackwell : supercalcul pour l’IA générative à l’échelle de trillions de paramètres.

NVIDIA a annoncé son superordinateur de prochaine génération pour l’IA, le NVIDIA DGX SuperPOD™ propulsé par les superpuces NVIDIA GB200 Grace Blackwell, conçu pour traiter des modèles de billions de paramètres avec un temps de disponibilité constant pour les charges de travail d’entraînement et d’inférence IA générative à grande échelle.

Doté d’une architecture de refroidissement liquide à l’échelle du rack extrêmement efficace, le nouveau DGX SuperPOD est construit avec des systèmes NVIDIA DGX™ GB200 et offre 11,5 exaflops de supercalcul en IA avec une précision FP4 et 240 téraoctets de mémoire rapide, pouvant être encore étendu avec des racks additionnels.

Chaque système DGX GB200 est équipé de 36 superpuces NVIDIA GB200, qui comprennent 36 CPU NVIDIA Grace et 72 GPU NVIDIA Blackwell, connectés comme un superordinateur à travers la cinquième génération de NVIDIA NVLink®. Les superpuces GB200 offrent jusqu’à une augmentation des performances de 30 fois par rapport au GPU NVIDIA H100 Tensor Core pour les charges de travail d’inférence de modèles de langage volumineux.

« Les superordinateurs NVIDIA DGX sont les usines de la révolution industrielle de l’IA, » a déclaré Jensen Huang, fondateur et PDG de NVIDIA. « Le nouveau DGX SuperPOD combine les dernières avancées en calcul accéléré, réseaux et logiciels de NVIDIA pour permettre à chaque entreprise, industrie et pays de perfectionner et de générer sa propre IA. »

Le DGX SuperPOD, propulsé par Grace Blackwell, comprend huit systèmes DGX GB200 ou plus et peut être étendu à des dizaines de milliers de superpuces GB200 connectées à travers NVIDIA Quantum InfiniBand. Pour un vaste espace de mémoire partagée nécessaire pour alimenter les modèles d’IA de nouvelle génération, les clients peuvent déployer une configuration reliant les 576 GPU Blackwell dans huit systèmes DGX GB200 connectés via NVLink.

Nouvelle architecture DGX SuperPOD pour l’ère de l’IA générative

Le nouveau DGX SuperPOD avec les systèmes DGX GB200 présente un maillage informatique unifié. En plus de la cinquième génération de NVIDIA NVLink, le maillage inclut des DPU NVIDIA BlueField®-3 et supportera la réseau NVIDIA Quantum-X800 InfiniBand, annoncé aujourd’hui séparément. Cette architecture offre jusqu’à 1 800 gigaoctets par seconde de bande passante à chaque GPU de la plateforme.

De plus, la technologie de protocole de regroupement et de réduction hiérarchique évolutive (SHARP)™ de quatrième génération fournit 14,4 téraflops de calcul en réseau, une multiplication par quatre de la performance dans l’architecture DGX SuperPOD de nouvelle génération par rapport à la génération précédente.

Une architecture clés en mains avec un logiciel avancé pour un temps de disponibilité sans précédent

Le nouveau DGX SuperPOD est un superordinateur IA complet à l’échelle du centre de données qui s’intègre avec un stockage à haute performance de partenaires certifiés par NVIDIA pour répondre aux exigences des charges de travail d’IA génératives. Chacun est construit, câblé et testé en usine pour accélérer significativement le déploiement dans les centres de données des clients.

Le nouveau DGX SuperPOD, propulsé par Grace Blackwell, dispose de capacités de gestion prédictive intelligente pour surveiller en continu des milliers de points de données matériels et logiciels afin de prévoir et d’intercepter les sources de temps d’arrêt et d’inefficacité, économisant ainsi du temps, de l’énergie et des coûts de calcul.

Le logiciel peut identifier les domaines préoccupants et planifier la maintenance, ajuster de manière flexible les ressources de calcul et sauvegarder et reprendre automatiquement les travaux pour éviter les temps d’arrêt, même en l’absence d’administrateurs système.

Les systèmes NVIDIA DGX B200 font avancer la superinformatique en IA pour les industries

NVIDIA a également présenté le système NVIDIA DGX B200, une plateforme de supercalcul en IA unifiée pour l’entraînement, le peaufinage et l’inférence des modèles d’IA.

Scroll al inicio