AIの時代において、コンピュートの単位はもはやサーバーの数だけでは測れません。相互接続されたGPU、CPU、メモリ、ストレージ、そしてラック内の複数のノードにまたがるこれらのリソースが、今日の人工知能を構築します。このインフラストラクチャには、高速かつ低レイテンシのネットワークファブリックと、各データセンター環境に最適なパフォーマンスと効率を維持するために慎重に設計された冷却技術と電力供給が必要です。SupermicroSuperClusterソリューションは、急速に進化するジェネレーティブAIと大規模言語モデル(LLM)にエンドツーエンドのAIデータセンターソリューションを提供します。
規模に応じた完全な統合
フルラックおよびクラスタの設計・製造。 5,000 ラック 月あたり
オンサイトサービスによるテスト、検証、デプロイ
実証済みのL11、L12試験プロセスにより、出荷前に運用の有効性と効率を徹底的に検証します。
液冷/空冷
GPUおよびCPUコールドプレート、冷却分配ユニット、マニホールドを備えた完全統合型液冷または空冷ソリューション
供給と在庫管理
ワンストップ・ショップにより、完全一体型ラックを迅速かつオンタイムで提供し、ソリューション導入までの時間を短縮します。
このフルターンキー・データセンター・ソリューションは、ミッションクリティカルな企業ユースケースの納期を短縮し、従来はスーパーコンピューティングの集中的な設計チューニングと時間のかかる最適化によってのみ達成可能であった大規模クラスタ構築の複雑さを解消します。
NVIDIA GB200 NVL72
1台のラックで液冷エクサスケール・コンピューティングを実現
- 72x NVIDIA Blackwell B200 GPUは、HBM3eメモリの巨大なプール(ラックあたり13.5TB)を備えた1つのGPUとして動作します。
- 9×NVLinkスイッチ、コンピュートトレイあたり4ポートで72 GPUを接続し、1.8TB/秒のGPU間相互接続を実現
- Supermicro 250kW容量インロー冷却液分配ユニット(冗長PSUおよびデュアルホットスワップポンプ付き)、または240kW/180kW容量リキッド・ツー・エア・ソリューション(設備用水不要)
- Supermicroエンドツーエンドの液冷ソリューションと包括的なオンサイト展開サービス
- NVIDIA BlueField®-3 SuperNIC、Spectrum™-X、Quantum-2、次世代800Gb/秒ネットワーキングプラットフォームなど、スケーリングに対応した高度なネットワーキング技術に対応

計算トレイ

- ARS-121GL-NBO

業界をリードする液冷AIクラスタ
32 NVIDIA HGX H100/H200 8-GPU、4U液冷システム(256 GPU)を5ラックに搭載
- Supermicroカスタム液冷ソリューションにより、データセンターの電力コストを最大40%削減し、計算密度を2倍にします。
- 256基のNVIDIA H100/H200 GPUを1つのスケーラブルなユニットに搭載
- 20TBのHBM3とH100、または36TBのHBM3eとH200を1台のスケーラブル・ユニットに搭載
- 各GPUへの1:1ネットワーキングにより、NVIDIA GPUDirect RDMAおよびストレージが可能になり、最大数兆のパラメータを持つ大規模言語モデルのトレーニングが可能になります。
- 業界をリードする並列ファイルシステムオプションを備えたカスタマイズ可能なAIデータパイプラインストレージファブリック
- NVIDIA Quantum-2 InfiniBandおよびSpectrum™-X Ethernetプラットフォームに対応
- NVIDIA NIMマイクロサービスを含むNVIDIA AI Enterprise Platformの認定を取得しています。

計算ノード


実績あるデザイン
32 NVIDIA HGX H100/H200 8-GPU、8U空冷システム(256 GPU)を9ラックに搭載
- 大規模なAIインフラ展開のための業界をリードする実績あるアーキテクチャ
- 256基のNVIDIA H100/H200 GPUを1つのスケーラブルなユニットに搭載
- 20TBのHBM3とH100、または36TBのHBM3eとH200を1台のスケーラブル・ユニットに搭載
- 各GPUへの1:1ネットワーキングにより、NVIDIA GPUDirect RDMAおよびストレージが可能になり、最大数兆のパラメータを持つ大規模言語モデルのトレーニングが可能になります。
- 業界をリードする並列ファイルシステムオプションを備えたカスタマイズ可能なAIデータパイプラインストレージファブリック
- NVIDIA Quantum-2 InfiniBandおよびSpectrum-X Ethernetプラットフォームに対応
- NVIDIA NIMマイクロサービスを含むNVIDIA AI Enterprise Platformの認定を取得しています。

計算ノード


クラウドスケールの推論
256個のNVIDIA GH200 Grace Hopper Superchipsを搭載、1U MGXシステムを9ラックに搭載
- クラウドスケールの大容量、低レイテンシ、高バッチサイズ推論のための統合GPUとCPUメモリ
- 9ラックの1U空冷NVIDIA MGXシステム、256個のNVIDIA GH200 Grace Hopper Superchipsを1つのスケーラブルなユニットに搭載
- 最大144GBのHBM3e + 480GBのLPDDR5X、70B以上のパラメータ・モデルを1つのノードに収めるのに十分な容量
- スパインリーフ・ネットワーク・ファブリックに接続された400Gb/秒InfiniBandまたはイーサネット・ノンブロッキング・ネットワーキング
- 業界をリードする並列ファイルシステムオプションを備えたカスタマイズ可能なAIデータパイプラインストレージファブリック
- NVIDIA NIMマイクロサービスを含むNVIDIA AI Enterprise Ready

計算ノード


エンタープライズ3D + AI
5ラックで32個の4U PCIe GPU空冷システム(最大256個のNVIDIA L40SGPU)
- 企業のAI対応ワークフローのマルチワークロード性能を最大化します。OpenUSDでNVIDIA Omniverseに最適化。
- 256基のNVIDIA L40S GPUを1つのスケーラブルなユニットに搭載
- 12TBのGPUメモリと32TBのシステムメモリを1つのスケーラブルなユニットに搭載
- 400Gb/s NVIDIA Spectrum™-X Ethernetによるスケールアウト
- 業界をリードする並列ファイルシステムオプションを備えたカスタマイズ可能なデータストレージファブリック
- NVIDIA Omniverse Enterprise認定、エンタープライズサポートサービス付き

計算ノード

