Im Zeitalter der KI wird die Rechenleistung nicht mehr nur anhand der Anzahl der Server gemessen. Miteinander verbundene GPUs, CPUs, Speicher und diese Ressourcen über mehrere Knoten in Racks hinweg bilden die Grundlage der heutigen künstlichen Intelligenz. Die Infrastruktur erfordert Hochgeschwindigkeits-Netzwerkstrukturen mit geringer Latenz sowie sorgfältig konzipierte Kühltechnologien und Stromversorgungslösungen, um eine optimale Leistung und Effizienz für jede Rechenzentrumsumgebung zu gewährleisten. Die SuperCluster-Lösung Supermicrobietet End-to KI für sich schnell entwickelnde generative KI große Sprachmodelle (LLMs).
Vollständige Integration in großem Maßstab
Entwurf und Bau von kompletten Racks und Clustern mit einer weltweiten Fertigungskapazität von bis zu 5,000 Gestelle pro Monat
Testen, Validieren, Bereitstellen mit Vor-Ort-Service
Bewährte L11- und L12-Prüfverfahren validieren die betriebliche Effektivität und Effizienz vor der Auslieferung gründlich
Flüssigkeitskühlung/Luftkühlung
Vollständig integrierte Flüssigkeits- oder Luftkühllösung mit GPU- und CPU-Kühlplatten, Kühlverteilern und Verteilern
Versorgung und Bestandsmanagement
One-Stop-Shop für die schnelle und pünktliche Lieferung vollständig integrierter Racks, um die Zeit bis zur Lösung zu verkürzen und eine schnelle Bereitstellung zu ermöglichen
Die schlüsselfertige Rechenzentrumslösung beschleunigt die Zeit bis zur Bereitstellung für geschäftskritische Unternehmensanwendungen und beseitigt die Komplexität des Aufbaus eines großen Clusters, die bisher nur durch intensive Designabstimmung und zeitaufwändige Optimierung des Supercomputing erreicht werden konnte.
Flüssigkeitsgekühlter NVIDIA HGX B200 KI
Mit bis zu 32 NVIDIA HGX B200 8-GPU, 4U flüssigkeitsgekühlte Systeme (256 GPUs) in 5 Racks
- Bereitstellung der höchsten KI und Inferenzleistung mit 256 NVIDIA B200-GPUs in einer skalierbaren Einheit(5 Racks)
- Supermicro Liquid Cooling mit einer Kühlmittelverteilungseinheit (CDU) mit einer Kapazität von 250 kW im Rack, redundanter Stromversorgung und zwei Hot-Swap-Pumpen
- 45 TB HBM3e-Speicher in einer skalierbaren Einheit
- Skalierbarkeit mit 400 Gb/s NVIDIA Spectrum™-X Ethernet oder NVIDIA Quantum-2 InfiniBand
- Anpassbare Datenspeicherstruktur mit branchenführenden Optionen für parallele Dateisysteme
- Unterstützung für NVIDIA KI Enterprise Platform einschließlich NVIDIA NIM Microservices

Rechenknoten


Luftgekühlter NVIDIA HGX B200 KI
Mit 32 NVIDIA HGX B200 8-GPU, 10U luftgekühlte Systeme (256 GPUs) in 9 Racks
- Bewährte, branchenführende Architektur mit neuer, thermisch optimierter, luftgekühlter Systemplattform
- 45 TB HBM3e-Speicher in einer skalierbaren Einheit
- Skalierbarkeit mit 400 Gb/s NVIDIA Spectrum-X Ethernet oder NVIDIA Quantum-2 InfiniBand
- Anpassbare Datenspeicherstruktur mit branchenführenden Optionen für parallele Dateisysteme
- Unterstützung für NVIDIA KI Enterprise Platform einschließlich NVIDIA NIM Microservices

Rechenknoten


NVIDIA GB200 NVL72
Flüssigkeitsgekühlter Exascale-Rechner in einem einzigen Rack
- 72x NVIDIA Blackwell B200-Grafikprozessoren, die als ein Grafikprozessor mit einem riesigen Pool an HBM3e-Speicher(13,5 TB pro Rack) arbeiten
- 9x NVLink Switch, 4 Ports pro Compute Tray, die 72 GPUs verbinden und 1,8 TB/s GPU-zu-GPU-Verbindung bieten
- Supermicro Liquid Cooling mit einer Kühlmittelverteilungseinheit (CDU) mit einer Kapazität von 250 kW im Rack, redundanter Stromversorgung und zwei Hot-Swap-Pumpen
- Die End-to-End-Flüssigkeitskühlungslösung Supermicround umfassende Vor-Ort -Bereitstellungsdienste
- Bereit für fortschrittliche Netzwerktechnologien zur Skalierung, einschließlich NVIDIA BlueField®-3 SuperNIC, Spectrum-X, Quantum-2 und 800 Gb/s-Netzwerkplattformen der nächsten Generation

Fach für Rechenleistung

- ARS-121GL-NBO-LCC
(nicht einzeln erhältlich)

Führender flüssigkeitsgekühlter KI
Mit 32 NVIDIA HGX H100/H200 8-GPU, 4U flüssigkeitsgekühlten Systemen (256 GPUs) in 5 Racks
- Verdopplung der Rechendichte durch die maßgeschneiderte Flüssigkeitskühlungslösung Supermicromit einer Senkung der Stromkosten für Rechenzentren um bis zu 40 %.
- 256 NVIDIA H100/H200-GPUs in einer skalierbaren Einheit
- 20 TB HBM3 mit H100 oder 36 TB HBM3e mit H200 in einer skalierbaren Einheit
- 1:1-Vernetzung zu jeder GPU, um NVIDIA GPUDirect RDMA und Storage für das Training großer Sprachmodelle mit bis zu Billionen von Parametern zu ermöglichen
- Anpassbare KI -Speicherstruktur mit branchenführenden parallelen Dateisystemoptionen
- Unterstützt NVIDIA Quantum-2 InfiniBand und Spectrum-X Ethernet-Plattform
- Zertifiziert für die NVIDIA KI Platform einschließlich NVIDIA NIM-Mikroservices

Rechenknoten


Bewährtes Design
Mit 32 NVIDIA HGX H100/H200 8-GPU, 8U luftgekühlte Systeme (256 GPUs) in 9 Racks
- Bewährte, branchenführende Architektur für den Einsatz von KI in großem Maßstab
- 256 NVIDIA H100/H200-GPUs in einer skalierbaren Einheit
- 20 TB HBM3 mit H100 oder 36 TB HBM3e mit H200 in einer skalierbaren Einheit
- 1:1-Vernetzung zu jeder GPU, um NVIDIA GPUDirect RDMA und Storage für das Training großer Sprachmodelle mit bis zu Billionen von Parametern zu ermöglichen
- Anpassbare KI -Speicherstruktur mit branchenführenden parallelen Dateisystemoptionen
- Unterstützt NVIDIA Quantum-2 InfiniBand und Spectrum-X Ethernet-Plattform
- Zertifiziert für die NVIDIA KI Platform einschließlich NVIDIA NIM-Mikroservices

Rechenknoten

