本文へスキップ

あなたのNVIDIA Blackwellの旅はここから始まります。

AIの変革の瞬間が到来しています。進化するスケーリング則とAI推論の台頭により、データセンターの能力は新たな限界値へと押し上げられています。Supermicro の最新 NVIDIA Blackwell 搭載ソリューションは、NVIDIAとの緊密な連携によって開発され、次世代の空冷および液冷アーキテクチャにより、かつてないほどの演算性能、搭載密度、効率性を実現しています。さらに、迅速な導入が可能なAI向けデータセンター・ビルディング・ブロック・ソリューションにより、Supermicro はNVIDIA Blackwell 活用に向けた最高のパートナーであ り、AIイノベーションを加速させる持続可能な最先端ソリューションを提供します。

エンド・ツー・エンドのAIデータセンター・ビルディング・ブロック・ソリューションの強み

複数のCPUオプションを備えた幅広い空冷および液冷システム、完全なデータセンター管理ソフトウェアスイート、完全なネットワーク、ケーブル配線、クラスタレベルのL12検証を含むターンキーラックレベルの統合、グローバルな配送、サポート、サービス。

Supermicro NVIDIA Blackwell対応システムのセレクション
豊富な経験
SupermicroのAIデータセンター・ビルディングブロック・ソリューションは、世界最大の液冷AIデータセンター展開を支えています。
柔軟なサービス
空冷または液冷、GPU最適化、複数のシステムおよびラックフォームファクター、CPU、ストレージ、ネットワークオプションなど、お客様のニーズに合わせて最適化します。
液冷のパイオニア
AI革命を支える、実証済みの拡張可能なプラグアンドプレイ液冷ソリューション。NVIDIA Blackwellアーキテクチャ専用に設計されています。
短期間での導入
グローバルな生産能力、世界クラスの導入専門知識、オンサイトサービスにより、短期間でのAI導入をサポートします。

最もコンパクトなハイパースケールAIプラットフォーム

NVIDIA HGX™ B300システムは、OCP ORV3設計向けに最適化されており、1ラックあたり最大144基のGPUを搭載可能です。

Supermicroの2-OU液冷NVIDIA HGX B300システムは、ハイパースケール展開向けに比類のないGPU密度を提供します。高度なDLC-2テクノロジーを備えたOCP ORV3仕様に準拠して構築されており、各コンパクトな8-GPUノードは21インチラックに収まり、1ラックあたり最大18ノード、合計144個のGPUを可能にします。ブラインドメイトマニホールド接続とモジュラーGPU/CPUトレイアーキテクチャを特徴とするこのシステムは、各B300 GPUを最大1,100W TDPで維持しながら、ラックフットプリント、消費電力、および冷却コストを劇的に削減します。最高の性能密度と優れた保守性を必要とするAIファクトリーに最適です。

1ラックあたり最大144基の液体冷却GPUを搭載可能
1.8TB/sのGPU間相互接続
GPUあたり288 GBのHBM3e
21インチ OCP ORV3 標準化ラック設計
800Gb/秒コンピュート・ファブリック用統合NVIDIAConnectX-8SuperNIC
Supermicro 44OUラック、18基の液冷式2OU フロントI/O NVIDIA HGX B300 8-GPUシステムを搭載

AI推論のためのUltra

NVIDIA HGX™ B300のための最先端の空冷および液冷アーキテクチャ

SupermicroのNVIDIA HGX プラットフォームは、世界最大級のAIクラスターの多くを支える基盤となっており、今日の革新的なAIアプリケーションに不可欠な膨大な演算能力を提供しています。最新の NVIDIA Blackwell Ultra を搭載する8U 空冷システムは、最大 2.3TB の HBM3e メモリーを搭載する、8 基の1100W TDP NVIDIA HGX B300 GPU の性能を最大限に引き出すように設計されています。前面の8つのOSFP ポートは、800 Gb/s の NVIDIA ConnectX®-8 SuperNICを統合し、NVIDIA Quantum-X800 InfiniBandまたは NVIDIA Spectrum-XTM Ethernet コンピューティングファブリックとのプラグアンドプレイによる導入を可能にします。新しい 4U 液冷システムは、Supermicro の DLC-2テクノロジーを採用しており、最大98%の熱回収を実現し、データセンターの電力消費量を最大40%削減することが可能です。DCBBSとSupermicro の専門知識を持ったオンサイト導入支援の組み合わせによって、液冷テクノロジー、ネットワークトポロジーと配線、電力供給、熱管理を網羅したトータルソリューションを提供し、AIファクトリーのオンライン化を加速します。

ラックに最大64(液冷)GPU
1.8TB/秒 GPU-GPUインターコネクト 288 GB HBM3e/GPU
デュアルIntel Xeon 6またはAMD EPYC 9005/9004プロセッサー
800Gb/秒コンピュート・ファブリック用統合NVIDIAConnectX-8SuperNIC
Supermicro 52Uラック (8台の液冷4U フロントI/O NVIDIA HGX B300 8-GPUシステムを搭載)Supermicro 52Uラック (4台の空冷8U フロントI/O NVIDIA HGX B300 8-GPUシステムを搭載)

1ラックでエクサスケール・コンピューターを実現

NVIDIA GB300 NVL72用エンドツーエンド液冷ソリューション

Supermicro NVIDIA GB300 NVL72は、基盤モデルのトレーニングから大規模な推論まで、AI計算の要求に対応します。高いAI性能とSupermicroの直接液冷技術を組み合わせることで、最大のコンピューティング密度と効率を実現します。NVIDIA Blackwell Ultraをベースに、単一ラックに72基のNVIDIA B300 GPUとそれぞれ288GBのHBM3eメモリが統合されています。1.8TB/秒のNVLinkインターコネクトにより、GB300 NVL72は単一ノードでエクサスケールスーパーコンピューターとして動作します。アップグレードされたネットワーキングは、コンピューティングファブリック全体の性能を2倍にし、800Gb/秒の速度をサポートします。Supermicroの製造能力とエンドツーエンドサービスは、液冷AIファクトリーの展開を加速し、GB300 NVL72クラスターの市場投入までの時間を短縮します。

36基のNVIDIA Grace CPUと72基のNVIDIA BlackwellUltra GPU
72基すべてのGPUとCPUにわたる1.8TB/秒GPU-GPU相互接続
36x NVIDIA 72-core Grace Arm Neoverse V2 CPU
250kW CDU液-液または200kW Liquid-to-Airサイドカーオプション
NVIDIA GB300 NVL72 SuperCluster向け Supermicro 48UラックNVIDIA GB200 NVL72 SuperCluster向け Supermicro 48Uラック

進化した空冷システム

NVIDIA HGX B200 8GPU用に再設計・最適化されたベストセラー空冷システム

新しい空冷NVIDIA HGX B200 8-GPUシステムは、強化された冷却アーキテクチャ、CPU、メモリー、ストレージ、ネットワーキングに対する高い構成可能性、および前面または背面からのサービス性の向上を特徴としています。新しい8U/10U空冷システムを最大4台ラックに設置し、完全に統合することで、前世代と同じ密度を達成しながら、最大15倍の推論性能と3倍のトレーニング性能を提供します。すべてのSupermicro NVIDIA HGX B200システムは、高性能コンピューティングファブリック全体でのスケーリングを実現するため、NVIDIA BlueField®-3またはNVIDIA ConnectX®-7をサポートする1:1のGPU対NIC比を備えています。

ラックに最大32GPU
1.8TB/秒のGPU-GPU相互接続、GPUあたり180GB HBM3e
デュアル インテル® Xeon® 6またはAMD EPYCTM 9005/9004シリーズプロセッサー
次世代空冷ヒートシンクと強化された保守性
Supermicro 52Uラック (5台の空冷8U フロントI/O NVIDIA HGX B200 8-GPUシステムを搭載)Supermicro 52Uラック (4台の空冷10U リアI/O NVIDIA HGX B200 8-GPUシステムを搭載)

次世代液冷システム

最大96基のNVIDIA HGX™ B200 GPUを1つのラックに搭載し、最高のスケーラビリティと効率性を実現

新しいフロントI/O液冷4U NVIDIA HGX B200 8-GPUシステムは、SupermicroのDLC-2テクノロジーを特徴としています。ダイレクト液冷は、CPU、GPU、PCIeスイッチ、DIMM、VRM、PSUなどのサーバーコンポーネントによって生成される熱の最大92%を捕捉し、データセンターの電力消費を最大40%削減し、50dBという低ノイズレベルを実現します。新しいアーキテクチャは、NVIDIA HGX H100/H200 8-GPUシステム向けに設計された前世代の効率とサービス性をさらに向上させます。42U、48U、または52U構成で利用可能な、新しい垂直冷却液分配マニホールド (CDM) を備えたラックスケール設計は、水平マニホールドが貴重なラックユニットを占有しなくなったことを意味します。これにより、42Uラックに64個のNVIDIA Blackwell GPUを搭載した8システム、および52Uラックに96個のNVIDIA GPUを搭載した最大12システムが可能になります。

ラックに最大96GPU
1.8TB/秒のGPU-GPU相互接続、GPUあたり180GB HBM3e
デュアル インテル® Xeon® 6またはAMD EPYCTM 9005/9004シリーズプロセッサー
Supermicro DLC-2テクノロジーは、データセンターの電力を最大40%削減します。
Supermicro 48Uラック、8基の液冷式4U フロントI/O NVIDIA HGX B200 8-GPUシステムを搭載Supermicro 48Uラック、8基の液冷式4U リアI/O NVIDIA HGX B200 8-GPUシステムを搭載
NVIDIA Blackwellを搭載したSuperClusters

迅速な導入が可能なNVIDIA Blackwellプラグアンドプレイスケーラブルユニット

空冷または液冷データセンター用に42U、48U、または52Uのラック構成で利用できる新しいSuperClusterは、ラック内中段にNVIDIA Quantum InfiniBandまたはNVIDIA Spectrum™ネットワーキングを組み込んでおり、液冷SuperClusterは、42U/48Uの5ラックで、ノンブロッキングの256GPUのスケーラブルユニット  を提供し、最先端のAIデータセンター展開向けに52Uの9ラックで、拡張768GPUのスケーラブルユニットを提供します。Supermicroはまた、大規模展開向けのインローCDUオプションや、設備用水を必要としないLiquid-to-Airのラックソリューションも提供しています。空冷SuperClusterの設計は、実績のある前世代のアーキテクチャを継承し、48Uの9ラックで256GPUのスケーラブルユニットを提供します。

SuperClustersの詳細

プラグアンドプレイのスケーラブルなユニットがNVIDIA Blackwellにすぐに導入可能

NVIDIA Blackwellのためのエンドツーエンドのデータセンター・ビルディング・ブロック・ソリューションと展開サービス

Supermicroは、グローバルな製造拠点を持つ包括的なワンストップ・ソリューションプロバイダーとして、データセンターレベルのソリューション設計、液冷技術、スイッチング、ケーブル配線、データセンター管理ソフトウェア一式、L11およびL12ソリューションの検証、現場での設置、専門的なサポートとサービスを提供します。サンノゼ、ヨーロッパ、アジアに製造拠点を持つSupermicroは、液冷または空冷ラックシステムの圧倒的な製造能力を提供し、タイムリーな納品、総所有コスト(TCO)の削減、一貫した品質を保証します。

ラックとデータセンターの統合サービス

プラグアンドプレイのスケーラブルなユニットがNVIDIA Blackwellにすぐに導入可能
NVIDIA Blackwellの最適化されたインフラとソフトウェア

NVIDIA Quantum InfiniBandまたはNVIDIA Spectrum™ネットワーキングでラック内中段に最適化配置されたSupermicroのNVIDIA Blackwellソリューションは、最高のインフラストラクチャのスケーリングとGPUクラスタリングを実現し、5ラックでノンブロッキングの256GPUスケーラブルユニット、または9ラックで拡張768GPUスケーラブルユニットを提供します。NVIDIA Enterpriseソフトウェアをネイティブにサポートするこのアーキテクチャは、Supermicroの液冷技術と共に世界最大のAIデータセンターに優れた効率性を提供し、展開までの期間を短縮します。

NVIDIA Quantum InfiniBandおよびSpectrum Ethernet

主流のエンタープライズサーバーから高性能スーパーコンピュータまで、NVIDIA Quantum InfiniBandおよびSpectrum™ネットワーキング技術は、最もスケーラブルで高速かつ安全なエンドツーエンドネットワーキングを実現します。

NVIDIA Quantum-2 InfiniBandプラットフォーム
NVIDIAQuantum-2InfiniBandプラットフォーム
NVIDIA Spectrum-X
NVIDIASpectrum-X

NVIDIA SuperNICs

SupermicroはInfiniBand用のNVIDIA ConnectXとイーサネット用のNVIDIA BlueField-3 SuperNICを採用しています。SupermicroのNVIDIA HGX B200システムはすべて、超並列AIコンピューティングのためのNVIDIA GPUDirect® RDMA (InfiniBand)またはRoCE (イーサネット)を利用できるように、各GPUに1:1のネットワーキングを搭載しています。

NVIDIA ConnectX SuperNIC
NVIDIA ConnectX SuperNIC
NVIDIA BlueField-3 SuperNIC
NVIDIABlueField-3SuperNIC

NVIDIA AI エンタープライズソフトウェア

NVIDIAアプリケーションフレームワーク、API、SDK、Toolkit、Optimizerへのフルアクセスに加え、AI Blueprint、NVIDIA NIM、RAG、最新の最適化されたAI基盤モデルを展開する機能なども提供されます。NVIDIA AI Enterprise Softwareは、エンタープライズ規模のセキュリティ、サポート、安定性を備えたプロダクショングレードのAIアプリケーションの開発と展開を合理化し、プロトタイプから本番へのスムーズな移行を実現します。

NVIDIA H200 Tensor コア GPU ソリューション

NVIDIA HGX H200、H200 NVL、GH200 Superchip、L40Sを含む、NVIDIA HopperおよびAda Lovelace Generationプラットフォームに最適化された最も幅広いポートフォリオから、お客様のAIワークロードに適したシステムをお選びいただくことができます。

詳細はこちら

関連資料

製品によっては、お住まいの地域で入手できない場合があります。