In der Ära der KI wird eine Recheneinheit nicht mehr nur an der Anzahl der Server gemessen. Zusammengeschaltete GPUs, CPUs, Speicher, Storage und diese Ressourcen über mehrere Knoten in Racks bilden die heutige künstliche Intelligenz. Die Infrastruktur erfordert Hochgeschwindigkeitsnetzwerke mit geringer Latenz sowie sorgfältig entwickelte Kühltechnologien und Stromversorgungen, um eine optimale Leistung und Effizienz für jede Rechenzentrumsumgebung zu gewährleisten. SupermicroSuperCluster-Lösung bietet KI für die sich schnell entwickelnde Generative KI und Large Language Models (LLMs).
Vollständige Integration in großem Maßstab
Entwurf und Bau von kompletten Racks und Clustern mit einer weltweiten Fertigungskapazität von bis zu 5,000 Gestelle pro Monat
Testen, Validieren, Bereitstellen mit Vor-Ort-Service
Bewährte L11- und L12-Prüfverfahren validieren die betriebliche Effektivität und Effizienz vor der Auslieferung gründlich
Flüssigkeitskühlung/Luftkühlung
Vollständig integrierte Flüssigkeits- oder Luftkühllösung mit GPU- und CPU-Kühlplatten, Kühlverteilern und Verteilern
Versorgung und Bestandsmanagement
One-Stop-Shop für die schnelle und pünktliche Lieferung vollständig integrierter Racks, um die Zeit bis zur Lösung zu verkürzen und eine schnelle Bereitstellung zu ermöglichen
Die schlüsselfertige Rechenzentrumslösung beschleunigt die Zeit bis zur Bereitstellung für geschäftskritische Unternehmensanwendungen und beseitigt die Komplexität des Aufbaus eines großen Clusters, die bisher nur durch intensive Designabstimmung und zeitaufwändige Optimierung des Supercomputing erreicht werden konnte.
NVIDIA GB200 NVL72
Flüssigkeitsgekühlter Exascale-Rechner in einem einzigen Rack
- 72x NVIDIA Blackwell B200-Grafikprozessoren, die als ein Grafikprozessor mit einem riesigen Pool an HBM3e-Speicher(13,5 TB pro Rack) arbeiten
- 9x NVLink Switch, 4 Ports pro Compute Tray, die 72 GPUs verbinden und 1,8 TB/s GPU-zu-GPU-Verbindung bieten
- Supermicro mit 250 kW Kapazität in der Reihe (mit redundantem Netzteil und zwei Hot-Swap-Pumpen) oder Flüssigkeits-Luft-Lösung mit 240 kW/180 kW Kapazität (kein Betriebswasser erforderlich)
- SupermicroEnd-to-End-Flüssigkeitskühlungslösung und umfassende Vor-Ort-Dienste
- Bereit für fortschrittliche Netzwerktechnologien zur Skalierung, einschließlich NVIDIA BlueField®-3 SuperNIC, Spectrum™-X, Quantum-2 und 800 Gb/s-Netzwerkplattformen der nächsten Generation

Fach für Rechenleistung

- ARS-121GL-NBO

Führender flüssigkeitsgekühlter KI
Mit 32 NVIDIA HGX H100/H200 8-GPU, 4U flüssigkeitsgekühlte Systeme (256 GPUs) in 5 Racks
- Verdoppelung der Rechendichte durch Supermicrokundenspezifische Flüssigkühlungslösung mit bis zu 40 % geringeren Stromkosten für Rechenzentren
- 256 NVIDIA H100/H200 GPUs in einer skalierbaren Einheit
- 20TB HBM3 mit H100 oder 36TB HBM3e mit H200 in einer skalierbaren Einheit
- 1:1-Vernetzung mit jedem Grafikprozessor für NVIDIA GPUDirect RDMA und Speicher für das Training großer Sprachmodelle mit bis zu Billionen von Parametern
- Anpassbare KI mit branchenführenden Optionen für parallele Dateisysteme
- Unterstützt NVIDIA Quantum-2 InfiniBand und Spectrum™-X Ethernet Plattform
- Zertifiziert für NVIDIA KI Enterprise Platform einschließlich NVIDIA NIM Microservices

Rechenknoten


Bewährtes Design
Mit 32 NVIDIA HGX H100/H200 8-GPU, 8U luftgekühlte Systeme (256 GPUs) in 9 Racks
- Bewährte, branchenführende Architektur für den Einsatz von KI in großem Maßstab
- 256 NVIDIA H100/H200 GPUs in einer skalierbaren Einheit
- 20TB HBM3 mit H100 oder 36TB HBM3e mit H200 in einer skalierbaren Einheit
- 1:1-Vernetzung mit jedem Grafikprozessor für NVIDIA GPUDirect RDMA und Speicher für das Training großer Sprachmodelle mit bis zu Billionen von Parametern
- Anpassbare KI mit branchenführenden Optionen für parallele Dateisysteme
- Unterstützt NVIDIA Quantum-2 InfiniBand und Spectrum-X Ethernet Plattform
- Zertifiziert für NVIDIA KI Enterprise Platform einschließlich NVIDIA NIM Microservices

Rechenknoten


Inferenz auf Cloud-Ebene
Mit 256 NVIDIA GH200 Grace Hopper Superchips, 1U MGX Systeme in 9 Racks
- Vereinheitlichter GPU- und CPU-Speicher für Cloud-basierte Inferenzen mit hohem Volumen, niedriger Latenz und hoher Stapelgröße
- 1U luftgekühlte NVIDIA MGX Systeme in 9 Racks, 256 NVIDIA GH200 Grace Hopper Superchips in einer skalierbaren Einheit
- Bis zu 144 GB HBM3e + 480 GB LPDDR5X, genug Kapazität, um ein Modell mit 70B+ Parametern in einem Knoten unterzubringen
- 400 Gb/s InfiniBand- oder Ethernet-Non-Blocking-Netzwerke, die mit der Spine-Leaf-Netzwerkstruktur verbunden sind
- Anpassbare KI mit branchenführenden Optionen für parallele Dateisysteme
- NVIDIA KI Enterprise Ready einschließlich NVIDIA NIM Microservices

Rechenknoten


Unternehmen 3D + KI
Mit 32 luftgekühlten 4U PCIe GPU Systemen (bis zu 256 NVIDIA L40S GPUs) in 5 Racks
- Maximieren Sie die Multi-Workload-Leistung für KI Workflows in Unternehmen. Optimiert für NVIDIA Omniverse mit OpenUSD.
- 256 NVIDIA L40S GPUs in einer skalierbaren Einheit
- 12TB GPU-Speicher und 32TB Systemspeicher in einer skalierbaren Einheit
- Skalierbarkeit mit 400Gb/s NVIDIA Spectrum™-X Ethernet
- Anpassbare Datenspeicherstruktur mit branchenführenden Optionen für parallele Dateisysteme
- Zertifiziert für NVIDIA Omniverse Enterprise mit integrierten Enterprise Support Services

Rechenknoten

