本文へスキップ
エンド・ツー・エンドのAIデータセンター・ソリューション

AIの時代において、計算単位はもはやサーバーの数だけで測られるものではありません。相互接続されたGPU、CPU、メモリ、ストレージ、そしてラック内の複数のノードにわたるこれらのリソースが、今日の人工知能を構築しています。このインフラストラクチャには、高速かつ低遅延のネットワークファブリック、そして各データセンター環境で最適な性能と効率を維持するための、慎重に設計された冷却技術と電力供給が必要です。SupermicroのSuperClusterソリューションは、急速に進化する生成AIおよび大規模言語モデル(LLM)向けに、エンドツーエンドのAIデータセンターソリューションを提供します。

  • 規模に応じた完全な統合

    フルラックおよびクラスタの設計・製造。 5,000 ラック 月あたり

  • オンサイトサービスによるテスト、検証、デプロイ

    実証済みのL11、L12試験プロセスにより、出荷前に運用の有効性と効率を徹底的に検証します。

  • 液冷/空冷

    GPUおよびCPUコールドプレート、冷却分配ユニット、マニホールドを備えた完全統合型液冷または空冷ソリューション

  • 供給と在庫管理

    ワンストップ・ショップにより、完全一体型ラックを迅速かつオンタイムで提供し、ソリューション導入までの時間を短縮します。

AIスーパークラスター

このフルターンキー・データセンター・ソリューションは、ミッションクリティカルな企業ユースケースの納期を短縮し、従来はスーパーコンピューティングの集中的な設計チューニングと時間のかかる最適化によってのみ達成可能であった大規模クラスタ構築の複雑さを解消します。

液体冷却式 2OU NVIDIA HGX B300AIクラスター

完全統合型の水冷式144ノードクラスターで、最大1152基のNVIDIA B300 GPUを搭載しております

  • NVIDIA HGX B300は、コンパクトな2OU水冷システムノードにより、比類のないAIトレーニング性能密度を実現します。
  • Supermicro ダイレクト液冷は、1.8MW容量のインロー型CDUを搭載しています (インラック型CDUオプションも利用可能)。
  • 大規模なHBM3e GPUメモリ容量(GPUあたり288GB*のHBM3eメモリ)と、基盤モデルトレーニングのためのシステムメモリ使用量
  • NVIDIAQuantum-X800InfiniBandによるスケールアウトで、ultra・高帯域幅のAIファブリックを実現します。
  • NVIDIA GPUDirect RDMA および Storage または RoCE を完全にサポートする専用ストレージファブリックオプション
  • NVIDIA AI EnterpriseおよびNVIDIA Run:aiを含む、NVIDIA AIソフトウェアプラットフォームを完全にサポートするよう設計されています。
* 物理GPUメモリ

計算ノード

Supermicro 水冷式 NVIDIA® HGX™ B300 8-GPU システム (SYS-222GS-NB3OT-ALC)
11ラックに配置された144台のNVIDIA® HGX™ B300(8-GPU、2-OU、水冷式)Supermicro (合計1152基のGPU)と、2台のインロー型冷却分配ユニット(CDU)

液体冷却式4U NVIDIA HGX B300AIクラスター

完全統合型の液体冷却72ノードクラスターで、最大576基のNVIDIA B300 GPUを搭載しております

  • NVIDIA HGX B300は、演算密度と保守性に最適化されており、高性能なAIトレーニングおよび推論を展開できます。
  • Supermicro ダイレクト液冷は、持続的な高電力動作とエネルギー効率の向上のために設計されています。
  • 大規模なHBM3e GPUメモリ容量(GPUあたり288GB*のHBM3eメモリ)と、基盤モデルトレーニングのためのシステムメモリ使用量
  • NVIDIASpectrum™-Xイーサネットまたは NVIDIAQuantum-X800インフィニバンドによるスケールアウト
  • NVIDIA GPUDirect RDMA および Storage または RoCE を完全にサポートする専用ストレージファブリックオプション
  • NVIDIA AI EnterpriseおよびNVIDIA Run:aiを含む、NVIDIA AIソフトウェアプラットフォームを完全にサポートするよう設計されています。
* 物理GPUメモリ

計算ノード

Supermicro 水冷式 NVIDIA® HGX™ B300 8-GPU システム(SYS-422GS-NB3RT-ALC または SYS-422GS-NB3RT-LCC)
11ラックに設置された、NVIDIA® HGX™ B300 8-GPU、4U水冷式Supermicro (GPU 576基)

空冷式8U NVIDIA HGX B300AIクラスター

完全に統合された空冷式72ノードクラスターで、最大576基のNVIDIA B300 GPUを搭載しております

  • NVIDIA HGX B300を搭載した空冷設計により、拡張性の高いAIトレーニングおよび推論をデプロイし、より幅広いデータセンターとの互換性を実現します。
  • 最適化されたエアフローと熱設計により、液体冷却インフラなしで高性能な動作を実現します。
  • 大規模なHBM3e GPUメモリ容量(GPUあたり288GB*のHBM3eメモリ)と、基盤モデルトレーニングのためのシステムメモリ使用量
  • NVIDIASpectrum-Xイーサネットまたは NVIDIAQuantum-X800インフィニバンドによるスケールアウト
  • NVIDIA GPUDirect RDMA および Storage または RoCE を完全にサポートする専用ストレージファブリックオプション
  • NVIDIA AI EnterpriseおよびNVIDIA Run:aiを含む、NVIDIA AIソフトウェアプラットフォームを完全にサポートするよう設計されています。
* 物理GPUメモリ

計算ノード

Supermicro 空冷式 NVIDIA® HGX™ B300 8-GPU システム(SYS-822GS-NB3RT または AS-8126GS-NB3RT)
20ラックに設置された、NVIDIA® HGX™ B300 8-GPU、8U空冷式Supermicro (GPU計576基)

水冷式NVIDIA HGX B200AIクラスタ

5ラックで最大32個のNVIDIA HGX B200 8-GPU、4U液冷システム(256 GPU)を使用可能

  • 256基のNVIDIA B200 GPUを搭載したスケーラブルなユニット(5ラック)により、AIトレーニングおよび推論性能の頂点を実現いたします。
  • Supermicro ダイレクト液冷は、冗長PSUとデュアルホットスワップ・ポンプを備えた250kW容量のインラック型冷却液分配ユニット (CDU) を搭載しています。
  • 45TBのHBM3eメモリを1つのスケーラブル・ユニットに搭載
  • 400Gb/s NVIDIASpectrum-XEthernetまたはNVIDIA Quantum-2 InfiniBandによるスケールアウト
  • NVIDIA GPUDirect RDMA および Storage または RoCE を完全にサポートする専用ストレージファブリックオプション
  • NVIDIA AI EnterpriseおよびNVIDIA Run:aiを含む、NVIDIA AIソフトウェアプラットフォームを完全にサポートするよう設計されています。
NVIDIA® HGX™ B200 8-GPU
NVIDIA HGX B200水冷
データシートを読む

計算ノード

Supermicro 4U 液冷 8-GPU システム (SYS-422GA-NBRT-LCC または AS -4126GS-NBR-LCC)
32 NVIDIA HGX B200 8-GPU、4U液冷システム(256 GPU)を5ラックに搭載

空冷NVIDIA HGX B200 AIクラスタ

32 NVIDIA HGX B200 8-GPU、10U空冷システム(256 GPU)を9ラックに搭載

  • 熱的に最適化された新しい空冷システム・プラットフォームによる、業界をリードする実績あるアーキテクチャ
  • 45TBのHBM3eメモリを1つのスケーラブル・ユニットに搭載
  • 400Gb/s NVIDIASpectrum-Xイーサネットまたは NVIDIAQuantum-2インフィニバンドによるスケールアウト
  • NVIDIA GPUDirect RDMA および Storage または RoCE を完全にサポートする専用ストレージファブリックオプション
  • NVIDIA認定システムノードは、NVIDIA AI EnterpriseおよびNVIDIA Run:aiを含むNVIDIA AIソフトウェアプラットフォームを完全にサポートしております。
NVIDIA® HGX™ B200 8-GPU
NVIDIA HGX B200空冷
データシートを読む

計算ノード

Supermicro 10U 空冷 8-GPU システム (SYS-A22GA-NBRT または AS -A126GS-TNBR)
9つのラックに設置された、NVIDIA® HGX™ B200 8-GPU、Supermicro 空Supermicro (GPU計256基)

NVIDIA GB300 NVL72

1台のラックで液冷エクサスケール・コンピューティングを実現

  • NVIDIA GB300 Grace™ Blackwell スーパーチップを搭載したラックスケールソリューションで、1ラックあたり72基のNVIDIA B300 GPUと36基のGrace CPUを提供します
  • Ultra VIDIA BlackwellUltra
  • データセンターの電力コストを最大40%削減する直接水冷方式
  • ご相談から本格的な導入まで、必要な部品、ネットワークソリューション、および現地設置サービスを一括してご提供いたします
  • 400Gb/s NVIDIASpectrum-Xイーサネットまたは NVIDIAQuantum-2インフィニバンドによるスケールアウト
  • 最大800Gb/sのNVIDIA Quantum-2 InfiniBandまたはSpectrum-Xイーサネット(NVIDIA ConnectX®-8 SuperNICを内蔵)
NVIDIA GB300 グレース・ブラックウェル・スーパーチップ
NVIDIA GB300グレース・ブラックウェル・スーパーチップ
データシートを読む

計算トレイ

NVIDIA® GB300 Grace Blackwell スーパーチップを搭載したSupermicro コンピューティングトレイ(ARS-121GL-NB3-LCC)1台(全72台のうちの1台)
  • ARS-121GL-NB3-LCC
    (単品販売はしておりません)
5つのラックに収められた、NVIDIA® GB300 Grace Blackwell スーパーチップを搭載Supermicro トレイ72台

NVIDIA GB200 NVL72

1台のラックで液冷エクサスケール・コンピューティングを実現

  • 72基のNVIDIA Blackwell B200 GPUが単一のGPUとして動作し、大規模なHBM3eメモリプール(ラックあたり13.5TB)を備えております。
  • 9x NVLinkスイッチ、各コンピューティングトレイに4ポートを装備し、72基のGPUを接続して1.8TB/秒のGPU間相互接続を提供します。
  • Supermicro ダイレクト液冷は、冗長PSUとデュアルホットスワップ・ポンプを備えた250kW容量のインラック型冷却液分配ユニット (CDU) を搭載しています。
  • NVIDIA GPUDirect RDMA および Storage または RoCE を完全にサポートする専用ストレージファブリックオプション
  • 400Gb/s NVIDIASpectrum-Xイーサネットまたは NVIDIAQuantum-2インフィニバンドによるスケールアウト
  • NVIDIA AI EnterpriseおよびNVIDIA Run:aiを含む、NVIDIA AIソフトウェアプラットフォームを完全にサポートするよう設計されています。
NVIDIA GB200 グレース・ブラックウェル・スーパーチップ
NVIDIA GB200グレース・ブラックウェル・スーパーチップ
データシートを読む

計算トレイ

NVIDIA® GB200 Grace Blackwell スーパーチップを搭載したSupermicro コンピューティングトレイ(ARS-121GL-NBO-LCC)1台(全72台のうちの1台)
  • ARS-121GL-NBO-LCC
    (単品販売ではありません。)
5つのラックに収められた、NVIDIA® GB200 Grace Blackwell スーパーチップを搭載Supermicro トレイ72台

NVIDIA RTX PRO™ スーパークラスター

  • Supermicro 、NVIDIA GPU、NVIDIAソフトウェア、およびNVIDIAネットワークソリューションを含むリファレンスアーキテクチャに基づくフルスタックソリューション
  • 最大256基のNVIDIA RTX PRO™ 6000 Blackwell Server Edition GPUを搭載し、最大24TBのGDDR7メモリを提供します
  • NVIDIAソフトウェアスタック(NVIDIA AI Enterprise、NVIDIA Omniverse™、およびNVIDIA Run:ai)との互換性
  • ラックに完全に組み込まれ、出荷前および現場での設置前にテスト済みの、プラグアンドプレイ対応ソリューション
  • NVIDIASpectrum-Xイーサネット・コンピュート・ファブリック、コンバージド・ネットワーク、およびアウト・オブ・バンド管理機能が含まれています
  • NVIDIA AI Data Platform、Supermicro 、および主要なソフトウェア定義型ストレージパートナーを基盤とした、オプションの高性能ストレージ
NVIDIA® RTX PRO™ 6000 Blackwell サーバー版
NVIDIARTX PRO6000 Blackwell サーバー版
データシートを読む

計算ノード

業界をリードする液冷AIクラスタ

5つのラックに、NVIDIA HGX H200 8-GPU搭載の4U水冷システムを32台(計256 GPU)配置

  • Supermicroのカスタム液冷ソリューションによりコンピュート密度を倍増させ、データセンターの電力コストを最大40%削減
  • 1つのスケーラブルなユニットに256基のNVIDIA H200 GPUを搭載
  • 1つのスケーラブルなユニットに、H200を搭載した36TBのHBM3e
  • NVIDIA GPUDirect RDMA および Storage または RoCE を完全にサポートする専用ストレージファブリックオプション
  • 400Gb/s NVIDIASpectrum-Xイーサネットまたは NVIDIAQuantum-2インフィニバンドによるスケールアウト
  • NVIDIA認定システムノードは、NVIDIA AI EnterpriseおよびNVIDIA Run:aiを含むNVIDIA AIソフトウェアプラットフォームを完全にサポートしております。
NVIDIA® HGX™ H200 8-GPU
NVIDIA HGX H2008-GPU
データシートを読む

計算ノード

Supermicro 4U液冷式8-GPUシステム (SYS-421GE-TNHR2-LCC または AS -4125GS-TNHR2-LCC)
5つのラックに設置された、32台のNVIDIA® HGX™ H200 8-GPU、Supermicro (計256 GPU)

実績あるデザイン

9つのラックに、NVIDIA HGX H200 8-GPU搭載の8U空冷システムを32台(計256基のGPU)配置

  • 大規模なAIインフラ展開のための業界をリードする実績あるアーキテクチャ
  • 1つのスケーラブルなユニットに256基のNVIDIA H200 GPUを搭載
  • 1つのスケーラブルなユニットに、H200を搭載した36TBのHBM3e
  • 400Gb/s NVIDIASpectrum-Xイーサネットまたは NVIDIAQuantum-2インフィニバンドによるスケールアウト
  • 業界をリードする並列ファイルシステムオプションを備えたカスタマイズ可能なAIデータパイプラインストレージファブリック
  • NVIDIA認定システムノードは、NVIDIA AI EnterpriseおよびNVIDIA Run:aiを含むNVIDIA AIソフトウェアプラットフォームを完全にサポートしております。
NVIDIA® HGX™ H200 8-GPU
NVIDIA HGX H2008-GPU
データシートを読む

計算ノード

Supermicro 8U 空冷 8-GPUシステム (SYS-821GE-TNHR または AS -8125GS-TNHR)
9つのラックに設置された、32台のNVIDIA® HGX™ H200 8-GPU、Supermicro (計256 GPU)
関連資料

製品によっては、お住まいの地域で入手できない場合があります。