Premier cluster d'IA à refroidissement
Avec 32 systèmes NVIDIA HGX H100/H200 8-GPU, 4U refroidis par liquide (256 GPU) dans 5 racks
- Doublement de la densité de calcul grâce à la solution de refroidissement liquide personnalisée de Supermicro, avec une réduction de 40 % des coûts d'électricité pour le centre de données
- 256 GPU NVIDIA H100/H200 dans une unité évolutive
- 20 To de HBM3 avec H100 ou 36 To de HBM3e avec H200 dans une unité évolutive
- Mise en réseau 1:1 de chaque GPU pour permettre le stockage et le traitement RDMA de NVIDIA GPUDirect pour l'entrainement des modèles de langage de grande taille comportant des billions de paramètres.
- Structure de stockage personnalisable pour le flux des données d'IA avec des intégrations de système de fichiers de type parallèles.
- Prise en charge de la plate-forme InfiniBand NVIDIA Quantum-2 et de la plate-forme Ethernet Spectrum-X
- Certifié pour la plateforme d'entreprise NVIDIA AI, y compris les microservices NVIDIA NIM.

Nœud de calcul


Ressources à la une
