Zum Hauptinhalt springen
End-to-End KI Data Center Lösungen

Im Zeitalter der KI wird eine Recheneinheit nicht mehr nur an der Anzahl der Server gemessen. Verbundene GPUs, CPUs, Arbeitsspeicher, Speicher und diese Ressourcen über mehrere Knoten in Racks bilden die heutige Künstliche Intelligenz. Die Infrastruktur erfordert Hochgeschwindigkeits- und latenzarme Netzwerk-Fabrics sowie sorgfältig konzipierte Kühltechnologien und Stromversorgung, um optimale Leistung und Effizienz für jede Rechenzentrumsumgebung aufrechtzuerhalten. Die SuperCluster-Lösung von Supermicro bietet End-to-End-KI-Rechenzentrumslösungen für sich schnell entwickelnde Generative KI und Large Language Models (LLMs).

  • Vollständige Integration in großem Maßstab

    Entwurf und Bau von kompletten Racks und Clustern mit einer weltweiten Fertigungskapazität von bis zu 5,000 Gestelle pro Monat

  • Testen, Validieren, Bereitstellen mit Vor-Ort-Service

    Bewährte L11- und L12-Prüfverfahren validieren die betriebliche Effektivität und Effizienz vor der Auslieferung gründlich

  • Flüssigkeitskühlung/Luftkühlung

    Vollständig integrierte Flüssigkeits- oder Luftkühllösung mit GPU- und CPU-Kühlplatten, Kühlverteilern und Verteilern

  • Versorgung und Bestandsmanagement

    One-Stop-Shop für die schnelle und pünktliche Lieferung vollständig integrierter Racks, um die Zeit bis zur Lösung zu verkürzen und eine schnelle Bereitstellung zu ermöglichen

KI SuperClusters

Die schlüsselfertige Rechenzentrumslösung beschleunigt die Zeit bis zur Bereitstellung für geschäftskritische Unternehmensanwendungen und beseitigt die Komplexität des Aufbaus eines großen Clusters, die bisher nur durch intensive Designabstimmung und zeitaufwändige Optimierung des Supercomputing erreicht werden konnte.

Flüssigkeitsgekühlter 2-OU NVIDIA HGX B300 KI

Vollständig integrierter, flüssigkeitsgekühlter Cluster mit 144 Knoten und bis zu 1152 NVIDIA B300-GPUs

  • Unübertroffene KI dank NVIDIA HGX B300 mit kompakten 2-OU-Systemknoten mit Flüssigkeitskühlung
  • Supermicro Direct Liquid Cooling mit 1,8 MW Kapazität In-Row CDUs (In-Rack-CDU-Optionen verfügbar)
  • Große HBM3e-GPU-Speicherkapazität (288 GB* HBM3e-Speicher pro GPU) und Systemspeicherbedarf für das Training von Basismodellen
  • Skalierbarkeit mit NVIDIA Quantum-X800 InfiniBand für KI ultra und hoher Bandbreite
  • Spezielle Speicher-Fabric-Optionen mit vollständiger Unterstützung für NVIDIA GPUDirect RDMA und Storage oder RoCE
  • Entwickelt für die vollständige Unterstützung von NVIDIA KI , einschließlich NVIDIA KI und NVIDIA Run:KI
* Physischer GPU-Speicher

Rechenknoten

Supermicro 2-OU flüssigkeitsgekühltes NVIDIA HGX B300 8-GPU System (SYS-222GS-NB3OT-ALC)
144 NVIDIA HGX B300 8-GPU, 2-OU flüssigkeitsgekühlte Systeme (1152 GPUs) in 11 Racks zusammen mit zwei In-Row-Kühlverteilungseinheiten (CDUs)

Flüssigkeitsgekühlter 4U NVIDIA HGX B300 KI

Vollständig integrierter, flüssigkeitsgekühlter Cluster mit 72 Knoten und bis zu 576 NVIDIA B300-GPUs

  • Setzen Sie leistungsstarkes KI und KI-Inferenz mit NVIDIA HGX B300 ein, das für Rechendichte und Wartungsfreundlichkeit optimiert ist.
  • Supermicro Direkte Flüssigkeitskühlung, entwickelt für den dauerhaften Hochleistungsbetrieb und verbesserte Energieeffizienz.
  • Große HBM3e-GPU-Speicherkapazität (288 GB* HBM3e-Speicher pro GPU) und Systemspeicherbedarf für das Training von Basismodellen
  • Skalierung mit NVIDIA Spectrum™-X Ethernet oder NVIDIA Quantum-X800 InfiniBand
  • Spezielle Speicher-Fabric-Optionen mit vollständiger Unterstützung für NVIDIA GPUDirect RDMA und Storage oder RoCE
  • Entwickelt für die vollständige Unterstützung von NVIDIA KI , einschließlich NVIDIA KI und NVIDIA Run:KI
* Physischer GPU-Speicher

Rechenknoten

Supermicro 4U flüssigkeitsgekühltes NVIDIA HGX B300 8-GPU System (SYS-422GS-NB3RT-ALC oder SYS-422GS-NB3RT-LCC)
72 NVIDIA HGX B300 8-GPU, 4U flüssigkeitsgekühlte Systeme (576 GPUs) in 11 Racks

Luftgekühlter 8U NVIDIA HGX B300 KI

Vollständig integrierter luftgekühlter Cluster mit 72 Knoten und bis zu 576 NVIDIA B300-GPUs

  • Skalierbares KI und Inferenz mit NVIDIA HGX B300 in einem luftgekühlten Design für eine breitere Kompatibilität mit Rechenzentren
  • Optimierter Luftstrom und thermisches Design ermöglichen einen leistungsstarken Betrieb ohne Flüssigkeitskühlung.
  • Große HBM3e-GPU-Speicherkapazität (288 GB* HBM3e-Speicher pro GPU) und Systemspeicherbedarf für das Training von Basismodellen
  • Skalierung mit NVIDIA Spectrum™-X Ethernet oder NVIDIA Quantum-X800 InfiniBand
  • Spezielle Speicher-Fabric-Optionen mit vollständiger Unterstützung für NVIDIA GPUDirect RDMA und Storage oder RoCE
  • Entwickelt für die vollständige Unterstützung von NVIDIA KI , einschließlich NVIDIA KI und NVIDIA Run:KI
* Physischer GPU-Speicher

Rechenknoten

Supermicro 8U luftgekühltes NVIDIA HGX B300 8-GPU-System (SYS-822GS-NB3RT oder AS -8126GS-NB3RT)
72 NVIDIA HGX B300 8-GPU, 8U luftgekühlte Systeme (576 GPUs) in 20 Racks

Flüssigkeitsgekühlter NVIDIA HGX B200 KI

Mit bis zu 32 NVIDIA HGX B200 8-GPU, 4U flüssigkeitsgekühlte Systeme (256 GPUs) in 5 Racks

  • Nutzen Sie die Spitzenleistung im Bereich KI und -Inferenz mit 256 NVIDIA B200-GPUs in einer skalierbaren Einheit (5 Racks).
  • Supermicro Direct Liquid Cooling mit einer 250 kW In-Rack Coolant Distribution Unit (CDU), redundanter PSU und zwei Hot-Swap-Pumpen
  • 45 TB HBM3e-Speicher in einer skalierbaren Einheit
  • Skalierbarkeit mit 400 Gb/s NVIDIA Spectrum™-X Ethernet oder NVIDIA Quantum-2 InfiniBand
  • Spezielle Speicher-Fabric-Optionen mit vollständiger Unterstützung für NVIDIA GPUDirect RDMA und Storage oder RoCE
  • Entwickelt für die vollständige Unterstützung von NVIDIA KI , einschließlich NVIDIA KI und NVIDIA Run:KI
NVIDIA GB200 Grace Blackwell Superchip
NVIDIA HGX B200 Flüssigkeitsgekühlt
Datenblatt herunterladen

Rechenknoten

Supermicro 4U flüssigkeitsgekühltes 8-GPU-System (SYS-422GA-NBRT-LCC oder AS -4126GS-NBR-LCC)
32 NVIDIA HGX B200 8-GPU, 4U flüssigkeitsgekühlte Systeme (256 GPUs) in 5 Racks

Luftgekühlter NVIDIA HGX B200 KI

Mit 32 NVIDIA HGX B200 8-GPU, 10U luftgekühlte Systeme (256 GPUs) in 9 Racks

  • Bewährte, branchenführende Architektur mit neuer, thermisch optimierter, luftgekühlter Systemplattform
  • 45 TB HBM3e-Speicher in einer skalierbaren Einheit
  • Skalierbarkeit mit 400 Gb/s NVIDIA Spectrum-X Ethernet oder NVIDIA Quantum-2 InfiniBand
  • Spezielle Speicher-Fabric-Optionen mit vollständiger Unterstützung für NVIDIA GPUDirect RDMA und Storage oder RoCE
  • NVIDIA-zertifizierte Systemknoten, die NVIDIA KI vollständig unterstützen, darunter NVIDIA KI und NVIDIA Run:KI
NVIDIA HGX H100/H200 mit 8 GPUs
NVIDIA HGX B200 Luftgekühlt
Datenblatt herunterladen

Rechenknoten

Supermicro 10U Luftgekühltes 8-GPU-System (SYS-A22GA-NBRT oder AS -A126GS-TNBR)
32 NVIDIA HGX B200 8-GPU, 10U luftgekühlte Systeme (256 GPUs) in 9 Racks

NVIDIA GB200 NVL72

Flüssigkeitsgekühlter Exascale-Rechner in einem einzigen Rack

  • 72 NVIDIA Blackwell B200-GPUs, die als eine GPU mit einem riesigen Pool an HBM3e-Speicher (13,5 TB pro Rack) fungieren
  • 9x NVLink-Switch, 4 Ports pro Rechenfach, der 72 GPUs verbindet, um eine GPU-zu-GPU-Verbindung mit 1,8 TB/s bereitzustellen
  • Supermicro Direct Liquid Cooling mit einer 250 kW In-Rack Coolant Distribution Unit (CDU), redundanter PSU und zwei Hot-Swap-Pumpen
  • Spezielle Speicher-Fabric-Optionen mit vollständiger Unterstützung für NVIDIA GPUDirect RDMA und Storage oder RoCE
  • Skalierbarkeit mit 400 Gb/s NVIDIA Spectrum™-X Ethernet oder NVIDIA Quantum-2 InfiniBand
  • Entwickelt für die vollständige Unterstützung von NVIDIA KI , einschließlich NVIDIA KI und NVIDIA Run:KI
NVIDIA GB200 Grace Blackwell Superchip
NVIDIA GB200 Grace Blackwell Superchip
Datenblatt herunterladen

Fach für Rechenleistung

Individuelles Supermicro 1U GB200 Grace Blackwell GPU-System (ARS-121GL-NBO-LCC), 1 von 72
  • ARS-121GL-NBO-LCC
    (nicht einzeln erhältlich)
72 NVIDIA Blackwell B200 GPU-Systeme in 5 Racks

Führender flüssigkeitsgekühlter KI

Mit 32 NVIDIA HGX H100/H200 8-GPU, 4U flüssigkeitsgekühlten Systemen (256 GPUs) in 5 Racks

  • Verdoppelung der Rechenleistungsdichte durch Supermicros kundenspezifische Flüssigkeitskühlungslösung mit bis zu 40 % Reduzierung der Stromkosten für Rechenzentren.
  • 256 NVIDIA H100/H200-GPUs in einer skalierbaren Einheit
  • 20 TB HBM3 mit H100 oder 36 TB HBM3e mit H200 in einer skalierbaren Einheit
  • Spezielle Speicher-Fabric-Optionen mit vollständiger Unterstützung für NVIDIA GPUDirect RDMA und Storage oder RoCE
  • Skalierbarkeit mit 400 Gb/s NVIDIA Spectrum™-X Ethernet oder NVIDIA Quantum-2 InfiniBand
  • NVIDIA-zertifizierte Systemknoten, die NVIDIA KI vollständig unterstützen, darunter NVIDIA KI und NVIDIA Run:KI
NVIDIA HGX H100/H200 mit 8 GPUs
NVIDIA HGX H100/H200 mit 8 GPUs
Datenblatt herunterladen

Rechenknoten

Supermicro 4U flüssigkeitsgekühltes 8-GPU-System (SYS-421GE-TNHR2-LCC oder AS -4125GS-TNHR2-LCC)
32 NVIDIA HGX H100/H200 8-GPU, 4U flüssigkeitsgekühlte Systeme (256 GPUs) in 5 Racks

Bewährtes Design

Mit 32 NVIDIA HGX H100/H200 8-GPU, 8U luftgekühlte Systeme (256 GPUs) in 9 Racks

  • Bewährte, branchenführende Architektur für den Einsatz von KI in großem Maßstab
  • 256 NVIDIA H100/H200-GPUs in einer skalierbaren Einheit
  • 20 TB HBM3 mit H100 oder 36 TB HBM3e mit H200 in einer skalierbaren Einheit
  • Skalierbarkeit mit 400 Gb/s NVIDIA Spectrum™-X Ethernet oder NVIDIA Quantum-2 InfiniBand
  • Anpassbare KI -Speicherstruktur mit branchenführenden parallelen Dateisystemoptionen
  • NVIDIA-zertifizierte Systemknoten, die NVIDIA KI vollständig unterstützen, darunter NVIDIA KI und NVIDIA Run:KI
NVIDIA HGX H100/H200 mit 8 GPUs
NVIDIA HGX H100/H200 mit 8 GPUs
Datenblatt herunterladen

Rechenknoten

Supermicro 8U luftgekühltes 8-GPU-System (SYS-821GE-TNHR oder AS -8125GS-TNHR)
32 NVIDIA HGX H100/H200 8-GPU, 8U luftgekühlte Systeme (256 GPUs) in 9 Racks
Ausgewählte Ressourcen

Bestimmte Produkte sind möglicherweise in Ihrer Region nicht erhältlich.