Ihre NVIDIA Blackwell-Reise beginnt hier
In diesem transformativen Moment der KI, in dem die sich entwickelnden Skalierungsgesetze weiterhin die Grenzen der Rechenzentrumskapazitäten verschieben, bieten unsere neuesten NVIDIA Blackwell-basierten Lösungen, die in enger Zusammenarbeit mit NVIDIA entwickelt wurden, eine beispiellose Rechenleistung, Dichte und Effizienz mit einer luft- und flüssigkeitsgekühlten Architektur der nächsten Generation. Mit unseren sofort einsetzbaren KI Data Center Building Block Lösungen ist Supermicro Ihr erster Partner, um Ihre NVIDIA Blackwell Reise zu beginnen. Wir bieten nachhaltige, innovative Lösungen, die KI Innovationen beschleunigen.
End-to-End KI Data Center Building Block Solutions Vorteil
Eine breite Palette von luft- und flüssigkeitsgekühlten Systemen mit mehreren CPU-Optionen, eine vollständige Software-Suite für die Verwaltung von Rechenzentren, schlüsselfertige Integration auf Rack-Ebene mit vollständiger Vernetzung, Verkabelung und L12-Validierung auf Clusterebene, weltweite Lieferung, Support und Service.

- Umfassende Erfahrung
- Die KI Data Center Building Block Solutions von Supermicroermöglichen die größte flüssigkeitsgekühlte KI Data Center-Installation der Welt.
- Flexible Angebote
- Luft- oder flüssigkeitsgekühlt, GPU-optimiert, mehrere System- und Rack-Formfaktoren, CPUs, Speicher, Netzwerkoptionen. Optimierbar für Ihre Bedürfnisse.
- Pionier der Flüssigkeitskühlung
- Bewährte, skalierbare und Plug-and-Play-Flüssigkeitskühlungslösungen zur Unterstützung der KI . Speziell für die NVIDIA Blackwell Architektur entwickelt.
- Schnelle Zeit bis zum Onlinegang
- Beschleunigte Bereitstellung mit globaler Kapazität, erstklassiger Bereitstellungsexpertise und One-Site-Services, um Ihre KI schnell in Produktion zu bringen.
Flüssigkeitsgekühltes System der nächsten Generation
Bis zu 96 NVIDIA HGX™ B200 Grafikprozessoren in einem einzigen Rack mit maximaler Skalierbarkeit und Effizienz
Das neue flüssigkeitsgekühlte 4U NVIDIA HGX B200 8-GPU System mit Front-I/O ist mit Supermicro DLC-2 Technologie ausgestattet. Die direkte Flüssigkeitskühlung fängt nun bis zu 92% der von den Serverkomponenten wie CPU, GPU, PCIe-Switch, DIMM, VRM und Netzteil erzeugten Wärme ab und ermöglicht so Energieeinsparungen von bis zu 40% im Rechenzentrum und einen Geräuschpegel von nur 50dB. Die neue Architektur verbessert die Effizienz und Wartungsfreundlichkeit des Vorgängers, der für NVIDIA HGX H100/H200 8-GPU-Systeme entwickelt wurde. Erhältlich in 42U, 48U oder 52U Konfigurationen, bedeutet das Rack-Scale Design mit den neuen vertikalen Kühlmittelverteilern (CDM), dass die horizontalen Verteiler keine wertvollen Rack-Einheiten mehr belegen. Dies ermöglicht 8 Systeme mit 64 NVIDIA Blackwell GPUs in einem 42U-Rack und bis zu 12 Systeme mit 96 NVIDIA GPUs in einem 52U-Rack.
4U Front I/O oder Rear I/O Flüssigkeitsgekühltes System
für NVIDIA HGX B200 8-GPU

Flüssigkeitsgekühltes Front-I/O DLC-2-System mit bis zu 40 % Energieeinsparung im Rechenzentrum und einem Geräuschpegel von nur 50 dB

Flüssigkeitsgekühltes Rear-I/O-System für maximale Rechendichte und Leistung


Luftgekühltes System, weiterentwickelt
Das meistverkaufte luftgekühlte System, neu gestaltet und optimiert für die NVIDIA HGX B200 8-GPU
Die neuen luftgekühlten NVIDIA HGX B200 8-GPU-Systeme zeichnen sich durch eine verbesserte Kühlarchitektur, eine hohe Konfigurierbarkeit von CPU, Speicher, Storage und Netzwerk sowie eine verbesserte Wartungsfreundlichkeit von der Vorder- oder Rückseite aus. Bis zu vier der neuen luftgekühlten 8U/10U-Systeme können in einem Rack installiert und vollständig integriert werden. Dabei wird die gleiche Dichte wie bei der vorherigen Generation erreicht und eine bis zu 15-fache Inferenz- und 3-fache Trainingsleistung erzielt. Alle Supermicro NVIDIA HGX B200 Systeme sind mit einem 1:1 GPU-zu-NIC-Verhältnis ausgestattet und unterstützen NVIDIA BlueField®-3 oder NVIDIA ConnectX®-7 zur Skalierung über eine High-Performance-Computing-Fabric.
8U Front I/O oder 10U Rear I/O Luftgekühltes System
für NVIDIA HGX B200 8-GPU

Luftgekühltes Front-I/O-System mit erweiterter Flexibilität bei der Konfiguration des Systemspeichers und Wartungsfreundlichkeit in kalten Gängen

Luftgekühlte Rear-I/O-Konstruktion für das Training großer Sprachmodelle und Inferenzen mit hohem Volumen


Eine Exascale-Rechenleistung in einem Rack
End-to-End-Flüssigkeitskühlungslösung für NVIDIA GB200 NVL72
SupermicroGB200 NVL72-Lösung stellt einen Durchbruch in der KI dar und kombiniert SupermicroEnd-to-End-Flüssigkeitskühltechnologie. Sie ermöglicht eine bis zu 25-fache Leistungssteigerung bei gleichem Stromverbrauch im Vergleich zu früheren NVIDIA Hopper-Generationen und senkt gleichzeitig die Stromkosten im Rechenzentrum um bis zu 40%. Das System integriert 72 NVIDIA Blackwell-Grafikprozessoren und 36 NVIDIA Grace-CPUs in einem einzigen Rack und bietet Exascale-Computing-Funktionen über NVIDIAs bisher umfangreichstes NVLink™-Netzwerk, das 130 TB/s GPU-Kommunikation erreicht.
Die Vielseitigkeit der 48U-Lösung unterstützt sowohl Flüssig-zu-Luft- als auch Flüssig-zu-Flüssig-Kühlkonfigurationen und eignet sich damit für verschiedene Rechenzentrumsumgebungen.
NVIDIA GB200 NVL72 SuperCluster
für NVIDIA GB200 Grace™ Blackwell Superchip

72 NVIDIA Blackwell-GPUs in einer NVIDIA NVLink-Domäne. Die Spitze der KI .

Liquid-to-Air-Lösung für NVIDIA GB200 NVL72

Skalierbare Plug-and-Play-Einheit für NVIDIA Blackwell sofort einsatzbereit
Die neuen SuperCluster-Designs sind in 42U-, 48U- oder 52U-Rack-Konfigurationen für luft- oder flüssigkeitsgekühlte Rechenzentren erhältlich und beinhalten NVIDIA Quantum InfiniBand- oder NVIDIA Spectrum™-Netzwerke in einem zentralen Rack. Die flüssigkeitsgekühlten SuperClusters ermöglichen eine nicht blockierende, skalierbare Einheit mit 256 GPUs in fünf 42U/48U-Racks oder eine erweiterte skalierbare Einheit mit 768 GPUs in neun 52U-Racks für die fortschrittlichsten KI . Supermicro bietet auch eine In-Row-CDU-Option für große Installationen sowie eine Rack-Lösung mit Flüssigkeits-/Luftkühlung, die kein Betriebswasser benötigt. Das luftgekühlte SuperCluster-Design folgt der bewährten, branchenführenden Architektur der vorherigen Generation und bietet eine skalierbare 256-GPU-Einheit in neun 48U-Racks.

End-to-End Data Center Building Block Solution und Bereitstellungsservices für NVIDIA Blackwell
Supermicro ist ein umfassender Anbieter von Lösungen aus einer Hand mit globaler Produktionsgröße, der Lösungsdesign auf Rechenzentrumsebene, flüssigkeitsgekühlte Technologien, Switching, Verkabelung, eine vollständige Software-Suite für die Verwaltung von Rechenzentren, L11- und L12-Lösungsvalidierung, Installation vor Ort sowie professionellen Support und Service bietet. Mit Produktionsstätten in San Jose, Europa und Asien bietet Supermicro unübertroffene Fertigungskapazitäten für flüssigkeits- oder luftgekühlte Rack-Systeme, die eine pünktliche Lieferung, reduzierte Gesamtbetriebskosten (TCO) und gleichbleibende Qualität gewährleisten.
Die NVIDIA Blackwell Lösungen von Supermicrosind mit NVIDIA Quantum InfiniBand oder NVIDIA Spectrum™ Netzwerken in einem zentralisierten Rack für die beste Skalierung der Infrastruktur und GPU-Clustering optimiert und ermöglichen eine nicht-blockierende, skalierbare Einheit mit 256 GPUs in fünf Racks oder eine erweiterte skalierbare Einheit mit 768 GPUs in neun Racks. Diese Architektur mit nativer Unterstützung für NVIDIA Enterprise Software kombiniert mit der Erfahrung von Supermicrobei der Bereitstellung der weltweit größten flüssigkeitsgekühlten Rechenzentren, um überlegene Effizienz und eine unübertroffene Time-to-Online für die ehrgeizigsten KI von heute zu bieten.
NVIDIA Quantum InfiniBand und Spectrum Ethernet
Von mainstream bis hin zu Hochleistungs-Supercomputern - die NVIDIA Quantum InfiniBand und Spectrum™ Netzwerktechnologie aktivieren das skalierbarste, schnellste und sicherste End-to-End-Netzwerk.


NVIDIA SuperNICs
Supermicro ist einer der Vorreiter bei der Einführung von NVIDIA SuperNICs: NVIDIA ConnectX für InfiniBand und NVIDIA BlueField-3 SuperNIC für Ethernet. Alle NVIDIA HGX B200 Systeme von Supermicrosind mit einem 1:1 Netzwerk zu jeder GPU ausgestattet, um NVIDIA GPUDirect RDMA (InfiniBand) oder RoCE (Ethernet) für massiv paralleles KI zu ermöglichen.


NVIDIA KI Unternehmenssoftware
Voller Zugriff auf NVIDIA Anwendungs-Frameworks, APIs, SDKs, Toolkits und Optimierer sowie die Möglichkeit, KI , NVIDIA NIMs, RAGs und die neuesten optimierten KI einzusetzen. Die NVIDIA KI Enterprise Software rationalisiert die Entwicklung und den Einsatz produktionsreifer KI mit Sicherheit, Support und Stabilität auf Enterprise-Niveau, um einen reibungslosen Übergang vom Prototyp zur Produktion zu gewährleisten.