本文へスキップ

あなたのNVIDIA Blackwellの旅はここから始まります。

進化するスケーリング則がデータセンターの限界を押し広げるこのAI変革期において、NVIDIAとの緊密な協力により開発されたSupermicroの最新のNVIDIA Blackwell搭載ソリューションは、次世代の空冷および液冷アーキテクチャにより、これまでにない計算性能、密度、効率性を提供します。すぐに導入可能なAIデータセンター向けビルディングブロックソリューションを提供するSupermicroは、お客様のNVIDIA Blackwell導入をサポートする最高のパートナーであり、AIイノベーションを加速する持続可能な最先端ソリューションを提供します。

エンド・ツー・エンドのAIデータセンター・ビルディング・ブロック・ソリューションの強み

複数のCPUオプションを備えた幅広い空冷および液冷システム、完全なデータセンター管理ソフトウェアスイート、完全なネットワーク、ケーブル配線、クラスタレベルのL12検証を含むターンキーラックレベルの統合、グローバルな配送、サポート、サービス。

Supermicro NVIDIA Blackwell対応システムの選択
豊富な経験
SupermicroAIデータセンター・ビルディングブロック・ソリューションは、世界最大の液冷AIデータセンターの展開を支えています。
柔軟なサービス
空冷または液冷、GPU最適化、複数のシステムおよびラックフォームファクター、CPU、ストレージ、ネットワークオプションなど、お客様のニーズに合わせて最適化します。
液冷のパイオニア
AI革命を支える、実証済みの拡張可能なプラグアンドプレイ液冷ソリューション。NVIDIA Blackwellアーキテクチャ専用に設計されています。
短期間での導入
グローバルな生産能力、世界クラスの導入専門知識、オンサイトサービスにより、短期間でのAI導入をサポートします。

次世代液冷システム

最大96基のNVIDIA HGX™ B200 GPUを1つのラックに搭載し、最高のスケーラビリティと効率性を実現

液冷4U NVIDIA HGX B200 8-GPUシステムは、新しく開発されたコールドプレートと先進的なチューブ設計が特徴で、新しい250kW冷却水分配ユニット(CDU)と組み合わせ、同じ4Uフォームファクターで前世代の2倍以上の冷却能力を発揮します。この新しいアーキテクチャは、NVIDIA HGX H100/ H200 8-GPU用に設計された前世代の効率性と保守性をさらに強化します。42U、48U、または52U構成で利用可能で、新しい垂直クーラント分配マニホールド(CDM)を備えたラックスケール設計により、水平マニホールドが貴重なラックユニットを占有することがなくなります。これにより、42Uラックで8システム、64基のNVIDIA Blackwell GPU、そして52Uラックで96基のNVIDIA GPUを搭載した12システムまでの構成が可能になります。

ラックに最大96GPU
1.8TB/秒のGPU-GPU相互接続、GPUあたり180GB HBM3e
デュアル インテル® Xeon® 6またはAMD EPYCTM 9005/9004シリーズプロセッサー
ラックあたり最大250kWの次世代液冷システム
液冷4U NVIDIA HGX B200 8GPUシステムを8基搭載したSupermicro 48Uラック

進化した空冷システム

NVIDIA HGX B200 8GPU用に再設計・最適化されたベストセラー空冷システム

新しい空冷10U NVIDIA HGX B200システムは、1000W TDPのBlackwell GPUを8基搭載できるよう、サーマルヘッドルームを拡大した筺体を特徴としています。最大4台の新しい10U空冷システムをラックに設置、完全に統合することができ、前世代と同じ密度で、最大15倍の推論性能と3倍のトレーニング性能を提供します。Supermicro NVIDIA HGX B200システムはすべて、高性能コンピュートファブリック全体でスケーリングするためのNVIDIA BlueField®-3またはNVIDIA ConnectX®-7をサポートする1:1のGPU対NIC 比で構成されています。

ラックに最大32GPU
1.8TB/秒のGPU-GPU相互接続、GPUあたり180GB HBM3e
デュアル インテル® Xeon® 6またはAMD EPYCTM 9005/9004シリーズプロセッサー
次世代空冷ヒートシンクと強化された保守性
Supermicro 52Uラック、空冷10U NVIDIA HGX B200 8GPUシステム4基搭載

1ラックでエクサスケール・コンピューターを実現

NVIDIA GB200 NVL72のためのエンド・ツー・エンド液冷ソリューション

SupermicroのGB200 NVL72ソリューションは、Supermicroのエンドツーエンドの液冷技術を組み合わせた、AIコンピューティングインフラストラクチャの革新的なソリューションです。前世代のNVIDIA Hopperと比較して、同じ電力消費量で最大25倍のパフォーマンス向上を可能にすると同時に、データセンターの電力コストを最大40%削減することができます。このシステムは、72基のNVIDIA Blackwell GPUと36 基のNVIDIA Grace CPUを1つのラックに統合し、NVIDIAの最も広範なNVLink™ネットワークを通じてエクサスケール・コンピューティング機能を提供し、130 TB/秒のGPU間通信を可能にします。

48Uソリューションの汎用性は、液-空冷と液-液冷の両方の冷却構成をサポートし、さまざまなデータセンター環境に対応します。

36基のNVIDIA Grace CPUと72基のNVIDIA Blackwell GPUを搭載
72基すべてのGPUとCPUにわたる1.8TB/秒GPU-GPU相互接続
36x NVIDIA 72-core Grace Arm Neoverse V2 CPU
最大250kW CDU Liquid-to-Liquid または Liquid-to-Air オプション 
NVIDIA GB200 NVL72 SuperCluster用Supermicro 52Uラック
NVIDIA Blackwellを搭載したSuperClusters

迅速な導入が可能なNVIDIA Blackwellプラグアンドプレイスケーラブルユニット

空冷または液冷データセンター用に42U、48U、または52Uのラック構成で利用できる新しいSuperClusterは、ラック内中段にNVIDIA Quantum InfiniBandまたはNVIDIA Spectrum™ネットワーキングを組み込んでおり、液冷SuperClusterは、42U/48Uの5ラックで、ノンブロッキングの256GPUのスケーラブルユニット  を提供し、最先端のAIデータセンター展開向けに52Uの9ラックで、拡張768GPUのスケーラブルユニットを提供します。Supermicroはまた、大規模展開向けのインローCDUオプションや、設備用水を必要としないLiquid-to-Airのラックソリューションも提供しています。空冷SuperClusterの設計は、実績のある前世代のアーキテクチャを継承し、48Uの9ラックで256GPUのスケーラブルユニットを提供します。

SuperClustersの詳細

プラグアンドプレイのスケーラブルなユニットがNVIDIA Blackwellにすぐに導入可能

NVIDIA Blackwellのためのエンドツーエンドのデータセンター・ビルディング・ブロック・ソリューションと展開サービス

Supermicroは、グローバルな製造拠点を持つ包括的なワンストップ・ソリューションプロバイダーとして、データセンターレベルのソリューション設計、液冷技術、スイッチング、ケーブル配線、データセンター管理ソフトウェア一式、L11およびL12ソリューションの検証、現場での設置、専門的なサポートとサービスを提供します。サンノゼ、ヨーロッパ、アジアに製造拠点を持つSupermicroは、液冷または空冷ラックシステムの圧倒的な製造能力を提供し、タイムリーな納品、総所有コスト(TCO)の削減、一貫した品質を保証します。

ラックとデータセンターの統合サービス

プラグアンドプレイのスケーラブルなユニットがNVIDIA Blackwellにすぐに導入可能
NVIDIA Blackwellの最適化されたインフラとソフトウェア

NVIDIA Quantum InfiniBandまたはNVIDIA Spectrum™ネットワーキングでラック内中段に最適化配置されたSupermicroのNVIDIA Blackwellソリューションは、最高のインフラストラクチャのスケーリングとGPUクラスタリングを実現し、5ラックでノンブロッキングの256GPUスケーラブルユニット、または9ラックで拡張768GPUスケーラブルユニットを提供します。NVIDIA Enterpriseソフトウェアをネイティブにサポートするこのアーキテクチャは、Supermicroの液冷技術と共に世界最大のAIデータセンターに優れた効率性を提供し、展開までの期間を短縮します。

NVIDIA Quantum InfiniBandおよびSpectrum Ethernet

主流のエンタープライズサーバーから高性能スーパーコンピュータまで、NVIDIA Quantum InfiniBandおよびSpectrum™ネットワーキング技術は、最もスケーラブルで高速かつ安全なエンドツーエンドネットワーキングを実現します。

NVIDIA Quantum-2 InfiniBandプラットフォーム
NVIDIAQuantum-2InfiniBandプラットフォーム
NVIDIA Spectrum-X
NVIDIASpectrum-X

NVIDIA SuperNICs

SupermicroはInfiniBand用のNVIDIA ConnectXとイーサネット用のNVIDIA BlueField-3 SuperNICを採用しています。SupermicroのNVIDIA HGX B200システムはすべて、超並列AIコンピューティングのためのNVIDIA GPUDirect® RDMA (InfiniBand)またはRoCE (イーサネット)を利用できるように、各GPUに1:1のネットワーキングを搭載しています。

NVIDIA ConnectX SuperNIC
NVIDIA ConnectX SuperNIC
NVIDIA BlueField-3 SuperNIC
NVIDIABlueField-3SuperNIC

NVIDIA AI エンタープライズソフトウェア

NVIDIAアプリケーションフレームワーク、API、SDK、Toolkit、Optimizerへのフルアクセスに加え、AI Blueprint、NVIDIA NIM、RAG、最新の最適化されたAI基盤モデルを展開する機能なども提供されます。NVIDIA AI Enterprise Softwareは、エンタープライズ規模のセキュリティ、サポート、安定性を備えたプロダクショングレードのAIアプリケーションの開発と展開を合理化し、プロトタイプから本番へのスムーズな移行を実現します。

NVIDIA H200 Tensor コア GPU ソリューション

NVIDIA HGX H200、H200 NVL、GH200 Superchip、L40Sを含む、NVIDIA HopperおよびAda Lovelace Generationプラットフォームに最適化された最も幅広いポートフォリオから、お客様のAIワークロードに適したシステムをお選びいただくことができます。

詳しく見る

関連資料

製品によっては、お住まいの地域で入手できない場合があります。