AIの時代において、コンピューティングの単位はもはやサーバーの数だけで測られるものではありません。相互接続されたGPU、CPU、メモリ、ストレージ、そしてラック内の複数ノードにまたがるこれらのリソースが、現代の人工知能を構成しています。 このインフラストラクチャには、高速かつ低遅延のネットワークファブリック、そして各データセンター環境において最適なパフォーマンスと効率性を維持するための、慎重に設計された冷却技術と電力供給が求められます。Supermicro、急速に進化する生成AIや大規模言語モデル(LLM)向けに、エンドツーエンドのAIデータセンターソリューションを提供します。
規模に応じた完全な統合
フルラックおよびクラスタの設計・製造。 5,000 ラック 月あたり
オンサイトサービスによるテスト、検証、デプロイ
実証済みのL11、L12試験プロセスにより、出荷前に運用の有効性と効率を徹底的に検証します。
液冷/空冷
GPUおよびCPUコールドプレート、冷却分配ユニット、マニホールドを備えた完全統合型液冷または空冷ソリューション
供給と在庫管理
ワンストップ・ショップにより、完全一体型ラックを迅速かつオンタイムで提供し、ソリューション導入までの時間を短縮します。
このフルターンキー・データセンター・ソリューションは、ミッションクリティカルな企業ユースケースの納期を短縮し、従来はスーパーコンピューティングの集中的な設計チューニングと時間のかかる最適化によってのみ達成可能であった大規模クラスタ構築の複雑さを解消します。
液体冷却式 2OU NVIDIA HGX B300AIクラスター
完全統合型の水冷式144ノードクラスターで、最大1152基のNVIDIA B300 GPUを搭載しております。
- NVIDIA HGX B300は、コンパクトな2OU水冷システムノードにより、比類のないAIトレーニング性能密度を実現します。
- Supermicro 液体冷却システムSupermicro 、1.8MW容量のインロー型冷却ユニット(インラック型冷却ユニットオプションもご用意しております)を特長としております。
- 大規模なHBM3e GPUメモリ容量(GPUあたり288GB*のHBM3eメモリ)と、基盤モデルトレーニングのためのシステムメモリ使用量
- NVIDIAQuantum-X800InfiniBandによるスケールアウトで、ultra・高帯域幅のAIファブリックを実現します。
- NVIDIA GPUDirect RDMA および Storage または RoCE を完全にサポートする専用ストレージファブリックオプション
- NVIDIA AI EnterpriseおよびNVIDIA Run:aiを含む、NVIDIA AIソフトウェアプラットフォームを完全にサポートするよう設計されています。
計算ノード


液体冷却式4U NVIDIA HGX B300AIクラスター
完全統合型の液体冷却72ノードクラスターで、最大576基のNVIDIA B300 GPUを搭載しております。
- NVIDIA HGX B300は、演算密度と保守性に最適化されており、高性能なAIトレーニングおよび推論を展開できます。
- 持続的な高電力動作とエネルギー効率の向上を目的として設計された、Supermicro Liquid Cooling(スーパーマイクロ ダイレクト・リキッド・クーリング)
- 大規模なHBM3e GPUメモリ容量(GPUあたり288GB*のHBM3eメモリ)と、基盤モデルトレーニングのためのシステムメモリ使用量
- NVIDIASpectrum™-Xイーサネットまたは NVIDIAQuantum-X800インフィニバンドによるスケールアウト
- NVIDIA GPUDirect RDMA および Storage または RoCE を完全にサポートする専用ストレージファブリックオプション
- NVIDIA AI EnterpriseおよびNVIDIA Run:aiを含む、NVIDIA AIソフトウェアプラットフォームを完全にサポートするよう設計されています。
計算ノード


空冷式8U NVIDIA HGX B300AIクラスター
完全に統合された空冷式72ノードクラスターで、最大576基のNVIDIA B300 GPUを搭載しております。
- NVIDIA HGX B300を搭載した空冷設計により、拡張性の高いAIトレーニングおよび推論をデプロイし、より幅広いデータセンターとの互換性を実現します。
- 最適化されたエアフローと熱設計により、液体冷却インフラなしで高性能な動作を実現します。
- 大規模なHBM3e GPUメモリ容量(GPUあたり288GB*のHBM3eメモリ)と、基盤モデルトレーニングのためのシステムメモリ使用量
- NVIDIASpectrum™-Xイーサネットまたは NVIDIAQuantum-X800インフィニバンドによるスケールアウト
- NVIDIA GPUDirect RDMA および Storage または RoCE を完全にサポートする専用ストレージファブリックオプション
- NVIDIA AI EnterpriseおよびNVIDIA Run:aiを含む、NVIDIA AIソフトウェアプラットフォームを完全にサポートするよう設計されています。
計算ノード


水冷式NVIDIA HGX B200AIクラスタ
5ラックで最大32個のNVIDIA HGX B200 8-GPU、4U液冷システム(256 GPU)を使用可能
- 256基のNVIDIA B200 GPUを搭載したスケーラブルなユニット(5ラック)により、AIトレーニングおよび推論性能の頂点を実現いたします。
- Supermicro 、250kW容量のラック内冷却剤分配ユニット(CDU)を搭載し、冗長電源ユニット(PSU)とデュアルホットスワップ対応ポンプを備えております。
- 45TBのHBM3eメモリを1つのスケーラブル・ユニットに搭載
- 400Gb/s NVIDIASpectrum™-XEthernetまたはNVIDIA Quantum-2 InfiniBandによるスケールアウト
- NVIDIA GPUDirect RDMA および Storage または RoCE を完全にサポートする専用ストレージファブリックオプション
- NVIDIA AI EnterpriseおよびNVIDIA Run:aiを含む、NVIDIA AIソフトウェアプラットフォームを完全にサポートするよう設計されています。

計算ノード


空冷NVIDIA HGX B200 AIクラスタ
32 NVIDIA HGX B200 8-GPU、10U空冷システム(256 GPU)を9ラックに搭載
- 熱的に最適化された新しい空冷システム・プラットフォームによる、業界をリードする実績あるアーキテクチャ
- 45TBのHBM3eメモリを1つのスケーラブル・ユニットに搭載
- 400Gb/s NVIDIASpectrum-Xイーサネットまたは NVIDIAQuantum-2インフィニバンドによるスケールアウト
- NVIDIA GPUDirect RDMA および Storage または RoCE を完全にサポートする専用ストレージファブリックオプション
- NVIDIA認定システムノードは、NVIDIA AI EnterpriseおよびNVIDIA Run:aiを含むNVIDIA AIソフトウェアプラットフォームを完全にサポートしております。

計算ノード


NVIDIA GB200 NVL72
1台のラックで液冷エクサスケール・コンピューティングを実現
- 72基のNVIDIA Blackwell B200 GPUが単一のGPUとして動作し、大規模なHBM3eメモリプール(ラックあたり13.5TB)を備えております。
- 9x NVLinkスイッチ、各コンピューティングトレイに4ポートを装備し、72基のGPUを接続して1.8TB/秒のGPU間相互接続を提供します。
- Supermicro 、250kW容量のラック内冷却剤分配ユニット(CDU)を搭載し、冗長電源ユニット(PSU)とデュアルホットスワップ対応ポンプを備えております。
- NVIDIA GPUDirect RDMA および Storage または RoCE を完全にサポートする専用ストレージファブリックオプション
- 400Gb/s NVIDIASpectrum™-Xイーサネットまたは NVIDIAQuantum-2インフィニバンドによるスケールアウト
- NVIDIA AI EnterpriseおよびNVIDIA Run:aiを含む、NVIDIA AIソフトウェアプラットフォームを完全にサポートするよう設計されています。

計算トレイ

- ARS-121GL-NBO-LCC
(単品販売ではありません。)

業界をリードする液冷AIクラスタ
32 NVIDIA HGX H100/H200 8-GPU、4U液冷システム(256 GPU)を5ラックに搭載
- Supermicroカスタム液体冷却ソリューションにより、コンピューティング密度を倍増させ、データセンターの電力コストを最大40%削減いたします。
- 256基のNVIDIA H100/H200 GPUを1つのスケーラブルなユニットに搭載
- 20TBのHBM3とH100、または36TBのHBM3eとH200を1台のスケーラブル・ユニットに搭載
- NVIDIA GPUDirect RDMA および Storage または RoCE を完全にサポートする専用ストレージファブリックオプション
- 400Gb/s NVIDIASpectrum™-Xイーサネットまたは NVIDIAQuantum-2インフィニバンドによるスケールアウト
- NVIDIA認定システムノードは、NVIDIA AI EnterpriseおよびNVIDIA Run:aiを含むNVIDIA AIソフトウェアプラットフォームを完全にサポートしております。

計算ノード


実績あるデザイン
32 NVIDIA HGX H100/H200 8-GPU、8U空冷システム(256 GPU)を9ラックに搭載
- 大規模なAIインフラ展開のための業界をリードする実績あるアーキテクチャ
- 256基のNVIDIA H100/H200 GPUを1つのスケーラブルなユニットに搭載
- 20TBのHBM3とH100、または36TBのHBM3eとH200を1台のスケーラブル・ユニットに搭載
- 400Gb/s NVIDIASpectrum™-Xイーサネットまたは NVIDIAQuantum-2インフィニバンドによるスケールアウト
- 業界をリードする並列ファイルシステムオプションを備えたカスタマイズ可能なAIデータパイプラインストレージファブリック
- NVIDIA認定システムノードは、NVIDIA AI EnterpriseおよびNVIDIA Run:aiを含むNVIDIA AIソフトウェアプラットフォームを完全にサポートしております。

計算ノード

