Aller au contenu principal

Premier cluster d'IA à refroidissement

Avec 32 systèmes NVIDIA HGX H100/H200 8-GPU, 4U refroidis par liquide (256 GPU) dans 5 racks

  • Doublement de la densité de calcul grâce à la solution de refroidissement liquide personnalisée de Supermicro, avec une réduction de 40 % des coûts d'électricité pour le centre de données
  • 256 GPU NVIDIA H100/H200 dans une unité évolutive
  • 20 To de HBM3 avec H100 ou 36 To de HBM3e avec H200 dans une unité évolutive
  • Mise en réseau 1:1 de chaque GPU pour permettre le stockage et le traitement RDMA de NVIDIA GPUDirect pour l'entrainement des modèles de langage de grande taille comportant des billions de paramètres.
  • Structure de stockage personnalisable pour le flux des données d'IA avec des intégrations de système de fichiers de type parallèles.
  • Prise en charge de la plate-forme InfiniBand NVIDIA Quantum-2 et de la plate-forme Ethernet Spectrum-X
  • Certifié pour la plateforme d'entreprise NVIDIA AI, y compris les microservices NVIDIA NIM.
NVIDIA HGX H100/H200 8-GPU
NVIDIA HGX H100/H200 8-GPU
Télécharger la fiche technique

Nœud de calcul

Système Supermicro à refroidissement liquide et 8 GPU (SYS-421GE-TNHR2-LCC ou AS -4125GS-TNHR2-LCC)
32 systèmes NVIDIA HGX H100/H200 8-GPU, 4U refroidis par liquide (256 GPU) dans 5 racks
Ressources à la une