Zum Hauptinhalt springen
End-to-End KI Data Center Lösungen

In der Ära der KI wird eine Recheneinheit nicht mehr nur an der Anzahl der Server gemessen. Zusammengeschaltete GPUs, CPUs, Speicher, Storage und diese Ressourcen über mehrere Knoten in Racks bilden die heutige künstliche Intelligenz. Die Infrastruktur erfordert Hochgeschwindigkeitsnetzwerke mit geringer Latenz sowie sorgfältig entwickelte Kühltechnologien und Stromversorgungen, um eine optimale Leistung und Effizienz für jede Rechenzentrumsumgebung zu gewährleisten. SupermicroSuperCluster-Lösung bietet KI für die sich schnell entwickelnde Generative KI und Large Language Models (LLMs).

  • Vollständige Integration in großem Maßstab

    Entwurf und Bau von kompletten Racks und Clustern mit einer weltweiten Fertigungskapazität von bis zu 5,000 Gestelle pro Monat

  • Testen, Validieren, Bereitstellen mit Vor-Ort-Service

    Bewährte L11- und L12-Prüfverfahren validieren die betriebliche Effektivität und Effizienz vor der Auslieferung gründlich

  • Flüssigkeitskühlung/Luftkühlung

    Vollständig integrierte Flüssigkeits- oder Luftkühllösung mit GPU- und CPU-Kühlplatten, Kühlverteilern und Verteilern

  • Versorgung und Bestandsmanagement

    One-Stop-Shop für die schnelle und pünktliche Lieferung vollständig integrierter Racks, um die Zeit bis zur Lösung zu verkürzen und eine schnelle Bereitstellung zu ermöglichen

KI SuperClusters

Die schlüsselfertige Rechenzentrumslösung beschleunigt die Zeit bis zur Bereitstellung für geschäftskritische Unternehmensanwendungen und beseitigt die Komplexität des Aufbaus eines großen Clusters, die bisher nur durch intensive Designabstimmung und zeitaufwändige Optimierung des Supercomputing erreicht werden konnte.

Flüssigkeitsgekühlter NVIDIA HGX B200 KI

Mit bis zu 32 NVIDIA HGX B200 8-GPU, 4U flüssigkeitsgekühlte Systeme (256 GPUs) in 5 Racks

  • Bereitstellung der höchsten KI und Inferenzleistung mit 256 NVIDIA B200-GPUs in einer skalierbaren Einheit(5 Racks)
  • Supermicro Direct Liquid Cooling mit 250kW Kapazität im Rack Coolant Distribution Unit (CDU) mit redundantem Netzteil und zwei Hot-Swap-Pumpen
  • 45 TB HBM3e-Speicher in einer skalierbaren Einheit
  • Skalierbarkeit mit 400 Gb/s NVIDIA Spectrum™-X Ethernet oder NVIDIA Quantum-2 InfiniBand
  • Anpassbare Datenspeicherstruktur mit branchenführenden Optionen für parallele Dateisysteme
  • Unterstützung für NVIDIA KI Enterprise Platform einschließlich NVIDIA NIM Microservices
NVIDIA GB200 Grace Blackwell Superchip
NVIDIA HGX B200 Flüssigkeitsgekühlt
Datenblatt herunterladen

Rechenknoten

Supermicro 4U flüssigkeitsgekühltes 8-GPU System (SYS-422GA-NBRT-LCC oder AS -4126GS-NBR-LCC)
32 NVIDIA HGX B200 8-GPU, 4U flüssigkeitsgekühlte Systeme (256 GPUs) in 5 Racks

Luftgekühlter NVIDIA HGX B200 KI

Mit 32 NVIDIA HGX B200 8-GPU, 10U luftgekühlte Systeme (256 GPUs) in 9 Racks

  • Bewährte, branchenführende Architektur mit neuer, thermisch optimierter, luftgekühlter Systemplattform
  • 45 TB HBM3e-Speicher in einer skalierbaren Einheit
  • Skalierbarkeit mit 400 Gb/s NVIDIA Spectrum-X Ethernet oder NVIDIA Quantum-2 InfiniBand
  • Anpassbare Datenspeicherstruktur mit branchenführenden Optionen für parallele Dateisysteme
  • Unterstützung für NVIDIA KI Enterprise Platform einschließlich NVIDIA NIM Microservices
NVIDIA HGX H100/H200 8-GPU
NVIDIA HGX B200 Luftgekühlt
Datenblatt herunterladen

Rechenknoten

Supermicro 10U luftgekühltes 8-GPU System (SYS-A22GA-NBRT oder AS -A126GS-TNBR)
32 NVIDIA HGX B200 8-GPU, 10U luftgekühlte Systeme (256 GPUs) in 9 Racks

NVIDIA GB200 NVL72

Flüssigkeitsgekühlter Exascale-Rechner in einem einzigen Rack

  • 72x NVIDIA Blackwell B200-Grafikprozessoren, die als ein Grafikprozessor mit einem riesigen Pool an HBM3e-Speicher(13,5 TB pro Rack) arbeiten
  • 9x NVLink Switch, 4 Ports pro Compute Tray, die 72 GPUs verbinden und 1,8 TB/s GPU-zu-GPU-Verbindung bieten
  • Supermicro Direct Liquid Cooling mit 250kW Kapazität im Rack Coolant Distribution Unit (CDU) mit redundantem Netzteil und zwei Hot-Swap-Pumpen
  • SupermicroEnd-to-End-Flüssigkeitskühlungslösung und umfassende Vor-Ort-Dienste
  • Bereit für fortschrittliche Netzwerktechnologien zur Skalierung, einschließlich NVIDIA BlueField®-3 SuperNIC, Spectrum-X, Quantum-2 und 800 Gb/s-Netzwerkplattformen der nächsten Generation
NVIDIA GB200 Grace Blackwell Superchip
NVIDIA GB200 Grace Blackwell Superchip
Datenblatt herunterladen

Fach für Rechenleistung

Einzelnes Supermicro 1U GB200 Grace Blackwell GPU System (ARS-121GL-NBO-LCC), 1 von 72
  • ARS-121GL-NBO-LCC
    (nicht einzeln erhältlich)
72 NVIDIA Blackwell B200 GPU-Systeme in 5 Racks

Führender flüssigkeitsgekühlter KI

Mit 32 NVIDIA HGX H100/H200 8-GPU, 4U flüssigkeitsgekühlte Systeme (256 GPUs) in 5 Racks

  • Verdoppelung der Rechendichte durch Supermicrokundenspezifische Flüssigkühlungslösung mit bis zu 40 % geringeren Stromkosten für Rechenzentren
  • 256 NVIDIA H100/H200 GPUs in einer skalierbaren Einheit
  • 20TB HBM3 mit H100 oder 36TB HBM3e mit H200 in einer skalierbaren Einheit
  • 1:1-Vernetzung mit jedem Grafikprozessor für NVIDIA GPUDirect RDMA und Speicher für das Training großer Sprachmodelle mit bis zu Billionen von Parametern
  • Anpassbare KI mit branchenführenden Optionen für parallele Dateisysteme
  • Unterstützt NVIDIA Quantum-2 InfiniBand und Spectrum-X Ethernet Plattform
  • Zertifiziert für NVIDIA KI Enterprise Platform einschließlich NVIDIA NIM Microservices
NVIDIA HGX H100/H200 8-GPU
NVIDIA HGX H100/H200 8-GPU
Datenblatt herunterladen

Rechenknoten

Supermicro 4U flüssigkeitsgekühltes 8-GPU System (SYS-421GE-TNHR2-LCC oder AS -4125GS-TNHR2-LCC)
32 NVIDIA HGX H100/H200 8-GPU, 4U flüssigkeitsgekühlte Systeme (256 GPUs) in 5 Racks

Bewährtes Design

Mit 32 NVIDIA HGX H100/H200 8-GPU, 8U luftgekühlte Systeme (256 GPUs) in 9 Racks

  • Bewährte, branchenführende Architektur für den Einsatz von KI in großem Maßstab
  • 256 NVIDIA H100/H200 GPUs in einer skalierbaren Einheit
  • 20TB HBM3 mit H100 oder 36TB HBM3e mit H200 in einer skalierbaren Einheit
  • 1:1-Vernetzung mit jedem Grafikprozessor für NVIDIA GPUDirect RDMA und Speicher für das Training großer Sprachmodelle mit bis zu Billionen von Parametern
  • Anpassbare KI mit branchenführenden Optionen für parallele Dateisysteme
  • Unterstützt NVIDIA Quantum-2 InfiniBand und Spectrum-X Ethernet Plattform
  • Zertifiziert für NVIDIA KI Enterprise Platform einschließlich NVIDIA NIM Microservices
NVIDIA HGX H100/H200 8-GPU
NVIDIA HGX H100/H200 8-GPU
Datenblatt herunterladen

Rechenknoten

Supermicro 8U luftgekühltes 8-GPU System (SYS-821GE-TNHR oder AS -8125GS-TNHR)
32 NVIDIA HGX H100/H200 8-GPU, 8U luftgekühlte Systeme (256 GPUs) in 9 Racks
Ausgewählte Ressourcen

Bestimmte Produkte sind möglicherweise in Ihrer Region nicht erhältlich.