Zum Hauptinhalt springen
End-to-End KI Data Center Lösungen

In der Ära der KI wird eine Recheneinheit nicht mehr nur an der Anzahl der Server gemessen. Zusammengeschaltete GPUs, CPUs, Speicher, Storage und diese Ressourcen über mehrere Knoten in Racks bilden die heutige künstliche Intelligenz. Die Infrastruktur erfordert Hochgeschwindigkeitsnetzwerke mit geringer Latenz sowie sorgfältig entwickelte Kühltechnologien und Stromversorgungen, um eine optimale Leistung und Effizienz für jede Rechenzentrumsumgebung zu gewährleisten. SupermicroSuperCluster-Lösung bietet KI für die sich schnell entwickelnde Generative KI und Large Language Models (LLMs).

  • Vollständige Integration in großem Maßstab

    Entwurf und Bau von kompletten Racks und Clustern mit einer weltweiten Fertigungskapazität von bis zu 5,000 Gestelle pro Monat

  • Testen, Validieren, Bereitstellen mit Vor-Ort-Service

    Bewährte L11- und L12-Prüfverfahren validieren die betriebliche Effektivität und Effizienz vor der Auslieferung gründlich

  • Flüssigkeitskühlung/Luftkühlung

    Vollständig integrierte Flüssigkeits- oder Luftkühllösung mit GPU- und CPU-Kühlplatten, Kühlverteilern und Verteilern

  • Versorgung und Bestandsmanagement

    One-Stop-Shop für die schnelle und pünktliche Lieferung vollständig integrierter Racks, um die Zeit bis zur Lösung zu verkürzen und eine schnelle Bereitstellung zu ermöglichen

KI SuperClusters

Die schlüsselfertige Rechenzentrumslösung beschleunigt die Zeit bis zur Bereitstellung für geschäftskritische Unternehmensanwendungen und beseitigt die Komplexität des Aufbaus eines großen Clusters, die bisher nur durch intensive Designabstimmung und zeitaufwändige Optimierung des Supercomputing erreicht werden konnte.

NVIDIA GB200 NVL72

Flüssigkeitsgekühlter Exascale-Rechner in einem einzigen Rack

  • 72x NVIDIA Blackwell B200-Grafikprozessoren, die als ein Grafikprozessor mit einem riesigen Pool an HBM3e-Speicher(13,5 TB pro Rack) arbeiten
  • 9x NVLink Switch, 4 Ports pro Compute Tray, die 72 GPUs verbinden und 1,8 TB/s GPU-zu-GPU-Verbindung bieten
  • Supermicro mit 250 kW Kapazität in der Reihe (mit redundantem Netzteil und zwei Hot-Swap-Pumpen) oder Flüssigkeits-Luft-Lösung mit 240 kW/180 kW Kapazität (kein Betriebswasser erforderlich)
  • SupermicroEnd-to-End-Flüssigkeitskühlungslösung und umfassende Vor-Ort-Dienste
  • Bereit für fortschrittliche Netzwerktechnologien zur Skalierung, einschließlich NVIDIA BlueField®-3 SuperNIC, Spectrum™-X, Quantum-2 und 800 Gb/s-Netzwerkplattformen der nächsten Generation
NVIDIA GB200 Grace Blackwell Superchip
NVIDIA GB200 Grace Blackwell Superchip
Broschüre herunterladen

Fach für Rechenleistung

Einzelnes Supermicro 1U GB200 Grace Blackwell GPU System (ARS-121GL-NBO), 1 von 72
  • ARS-121GL-NBO
72 NVIDIA Blackwell B200 GPU-Systeme in 5 Racks

Führender flüssigkeitsgekühlter KI

Mit 32 NVIDIA HGX H100/H200 8-GPU, 4U flüssigkeitsgekühlte Systeme (256 GPUs) in 5 Racks

  • Verdoppelung der Rechendichte durch Supermicrokundenspezifische Flüssigkühlungslösung mit bis zu 40 % geringeren Stromkosten für Rechenzentren
  • 256 NVIDIA H100/H200 GPUs in einer skalierbaren Einheit
  • 20TB HBM3 mit H100 oder 36TB HBM3e mit H200 in einer skalierbaren Einheit
  • 1:1-Vernetzung mit jedem Grafikprozessor für NVIDIA GPUDirect RDMA und Speicher für das Training großer Sprachmodelle mit bis zu Billionen von Parametern
  • Anpassbare KI mit branchenführenden Optionen für parallele Dateisysteme
  • Unterstützt NVIDIA Quantum-2 InfiniBand und Spectrum™-X Ethernet Plattform
  • Zertifiziert für NVIDIA KI Enterprise Platform einschließlich NVIDIA NIM Microservices
NVIDIA HGX H100/H200 8-GPU
NVIDIA HGX H100/H200 8-GPU
Datenblatt herunterladen

Rechenknoten

Supermicro 4U flüssigkeitsgekühltes 8-GPU System (SYS-421GE-TNHR2-LCC oder AS -4125GS-TNHR2-LCC)
32 NVIDIA HGX H100/H200 8-GPU, 4U flüssigkeitsgekühlte Systeme (256 GPUs) in 5 Racks

Bewährtes Design

Mit 32 NVIDIA HGX H100/H200 8-GPU, 8U luftgekühlte Systeme (256 GPUs) in 9 Racks

  • Bewährte, branchenführende Architektur für den Einsatz von KI in großem Maßstab
  • 256 NVIDIA H100/H200 GPUs in einer skalierbaren Einheit
  • 20TB HBM3 mit H100 oder 36TB HBM3e mit H200 in einer skalierbaren Einheit
  • 1:1-Vernetzung mit jedem Grafikprozessor für NVIDIA GPUDirect RDMA und Speicher für das Training großer Sprachmodelle mit bis zu Billionen von Parametern
  • Anpassbare KI mit branchenführenden Optionen für parallele Dateisysteme
  • Unterstützt NVIDIA Quantum-2 InfiniBand und Spectrum-X Ethernet Plattform
  • Zertifiziert für NVIDIA KI Enterprise Platform einschließlich NVIDIA NIM Microservices
NVIDIA HGX H100/H200 8-GPU
NVIDIA HGX H100/H200 8-GPU
Datenblatt herunterladen

Rechenknoten

Supermicro 8U luftgekühltes 8-GPU System (SYS-821GE-TNHR oder AS -8125GS-TNHR)
32 NVIDIA HGX H100/H200 8-GPU, 8U luftgekühlte Systeme (256 GPUs) in 9 Racks

Inferenz auf Cloud-Ebene

Mit 256 NVIDIA GH200 Grace Hopper Superchips, 1U MGX Systeme in 9 Racks

  • Vereinheitlichter GPU- und CPU-Speicher für Cloud-basierte Inferenzen mit hohem Volumen, niedriger Latenz und hoher Stapelgröße
  • 1U luftgekühlte NVIDIA MGX Systeme in 9 Racks, 256 NVIDIA GH200 Grace Hopper Superchips in einer skalierbaren Einheit
  • Bis zu 144 GB HBM3e + 480 GB LPDDR5X, genug Kapazität, um ein Modell mit 70B+ Parametern in einem Knoten unterzubringen
  • 400 Gb/s InfiniBand- oder Ethernet-Non-Blocking-Netzwerke, die mit der Spine-Leaf-Netzwerkstruktur verbunden sind
  • Anpassbare KI mit branchenführenden Optionen für parallele Dateisysteme
  • NVIDIA KI Enterprise Ready einschließlich NVIDIA NIM Microservices
NVIDIA GH200 Grace Hopper Superchip
NVIDIA GH200 Grace Hopper Superchip
Datenblatt herunterladen

Rechenknoten

Supermicro 1U GH200 Grace Hopper Superchip System
256 NVIDIA GH200 Grace Hopper Superchips, 1U MGX Systeme in 9 Racks

Unternehmen 3D + KI

Mit 32 luftgekühlten 4U PCIe GPU Systemen (bis zu 256 NVIDIA L40S GPUs) in 5 Racks

  • Maximieren Sie die Multi-Workload-Leistung für KI Workflows in Unternehmen. Optimiert für NVIDIA Omniverse mit OpenUSD.
  • 256 NVIDIA L40S GPUs in einer skalierbaren Einheit
  • 12TB GPU-Speicher und 32TB Systemspeicher in einer skalierbaren Einheit
  • Skalierbarkeit mit 400Gb/s NVIDIA Spectrum™-X Ethernet
  • Anpassbare Datenspeicherstruktur mit branchenführenden Optionen für parallele Dateisysteme
  • Zertifiziert für NVIDIA Omniverse Enterprise mit integrierten Enterprise Support Services
NVIDIA L40S
NVIDIA L40S
Datenblatt herunterladen

Rechenknoten

Supermicro 1U GH200 Grace Hopper Superchip System
32 luftgekühlte 4U PCIe GPU Systeme (bis zu 256 NVIDIA L40S GPUs) in 5 Racks
Ausgewählte Ressourcen

Bestimmte Produkte sind möglicherweise in Ihrer Region nicht erhältlich.