跳至主要內容
端對端AI資料中心解決方案

在現今的AI時代,衡量算力的單位不再僅基於伺服器的數量。經互連的GPU、CPU、記憶體、儲存,以及這些機架內多個節點的運算資源,為目前的AI技術奠定了基礎。運算基礎設施需要高速且低延遲的網路結構,以及經精密設計的冷卻技術和電力供應,以維持每個資料中心環境的最佳效能和效率。Supermicro的SuperCluster解決方案可為正快速進步的生成式AI和大型語言模型(LLM)提供端對端AI資料中心解決方案。

  • 完善的大規模式整合

    設計並製造完整的機架和叢集,全球製造產能最高可達 5,000 機架 機架/月

  • 透過現場服務進行測試、驗證和部署

    L11、L12測試程序可在出貨前針對運作效能與效率進行完整驗證

  • 液冷 / 氣冷技術

    包括GPU與CPU冷板、冷卻液分配單元與歧管的完善整合式液冷或氣冷解決方案

  • 供應與庫存管理

    一站式服務——可快速、及時提供完全整合式機架,加速交付時間,實現快速部署

AI超級叢集

Supermicro的完善一站式資料中心解決方案可加快關鍵型企業應用的交付時間,並消除叢集建置所產生的複雜性。此前,這些建置程序需要大量的設計調整和耗時的超級運算最佳化作業。

液冷式雙機箱 NVIDIA HGX B300AI

完全整合式液冷144節點叢集,配備高達1152顆NVIDIA B300 GPU

  • NVIDIA HGX B300 憑藉緊湊型 2-OU 液冷系統節點,實現無可匹敵的AI 效能密度
  • Supermicro 1.8MW 容量的機櫃內冷卻單元(亦提供機架內冷卻單元選項)
  • 大型HBM3e GPU記憶體容量(每顆GPU配備288GB* HBM3e記憶體)及基礎模型訓練所需的系統記憶體佔用空間
  • 採用 NVIDIAQuantum-X800InfiniBand 實現橫向擴展,打造ultra、高頻寬AI
  • 具備完整 NVIDIA GPUDirect RDMA 與儲存裝置支援或 RoCE 支援的專用儲存架構選項
  • 專為全面支援 NVIDIAAI 平台而設計,包括 NVIDIAAI 與 NVIDIA Run:ai
* 實體 GPU 記憶體

運算節點

Supermicro 液冷式 NVIDIA HGX B300 8-GPU 系統 (SYS-222GS-NB3OT-ALC)
144組 NVIDIA HGX B300 8-GPU、2-OU 液冷系統(共1152顆GPU),配置於11個機架中,並配備兩組機架內冷卻分配單元(CDU)

液冷式4U NVIDIA HGX B300AI

完全整合的液冷式72節點叢集,配備多達576顆NVIDIA B300 GPU

  • 部署高效能AI 與推論,採用針對運算密度與可維護性優化的 NVIDIA HGX B300
  • Supermicro 液冷技術專為持續高功率運作設計,並提升能源效率
  • 大型HBM3e GPU記憶體容量(每顆GPU配備288GB* HBM3e記憶體)及基礎模型訓練所需的系統記憶體佔用空間
  • 透過 NVIDIASpectrum™-X以太網路或 NVIDIAQuantum-X800InfiniBand 實現橫向擴展
  • 具備完整 NVIDIA GPUDirect RDMA 與儲存裝置支援或 RoCE 支援的專用儲存架構選項
  • 專為全面支援 NVIDIAAI 平台而設計,包括 NVIDIAAI 與 NVIDIA Run:ai
* 實體 GPU 記憶體

運算節點

Supermicro 液冷式 NVIDIA HGX B300 8-GPU 系統 (型號:SYS-422GS-NB3RT-ALC 或 SYS-422GS-NB3RT-LCC)
72組 NVIDIA HGX B300 8-GPU、4U液冷系統(共計576顆GPU),配置於11個機架中

風冷式 8U NVIDIA HGX B300AI

完全整合的風冷式72節點叢集,配備多達576張NVIDIA B300 GPU

  • 採用NVIDIA HGX B300實現可擴展AI 推論部署,其風冷設計可提升資料中心的廣泛相容性
  • 優化的氣流與散熱設計,實現無需液冷基礎設施即可達成的高效能運作
  • 大型HBM3e GPU記憶體容量(每顆GPU配備288GB* HBM3e記憶體)及基礎模型訓練所需的系統記憶體佔用空間
  • 透過 NVIDIASpectrum™-X以太網路或 NVIDIAQuantum-X800InfiniBand 實現橫向擴展
  • 具備完整 NVIDIA GPUDirect RDMA 與儲存裝置支援或 RoCE 支援的專用儲存架構選項
  • 專為全面支援 NVIDIAAI 平台而設計,包括 NVIDIAAI 與 NVIDIA Run:ai
* 實體 GPU 記憶體

運算節點

Supermicro 風冷式 NVIDIA HGX B300 8-GPU 系統 (型號:SYS-822GS-NB3RT 或 AS-8126GS-NB3RT)
72台 NVIDIA HGX B300 8-GPU、8U風冷系統(共計576顆GPU),部署於20個機架中

液冷式NVIDIA HGX B200AI叢集

最多可在5個機架中搭載32個NVIDIA HGX B200 8-GPU的4U液冷系統(最多256個GPU)

  • 部署頂尖AI 與推論效能,單一可擴展單元(5個機架)內配備256張NVIDIA B200 GPU
  • Supermicro直接液冷技術,具有可支援250kW散熱性能的機架內(In-Rack)冷卻液分配裝置(CDU),以及備援PSU和雙熱插拔幫浦
  • 單一可擴充單元可支援45TB的HBM3e記憶體
  • 可透過400Gb/s NVIDIASpectrum™-X乙太網路或NVIDIA Quantum-2 InfiniBand進行水平擴充
  • 具備完整 NVIDIA GPUDirect RDMA 與儲存裝置支援或 RoCE 支援的專用儲存架構選項
  • 專為全面支援 NVIDIAAI 平台而設計,包括 NVIDIAAI 與 NVIDIA Run:ai
NVIDIA GB200 Grace BlackwellSuperchip
液冷式NVIDIA HGX B200系統
下載Datasheet

運算節點

Supermicro (型號:SYS-422GA-NBRT-LCC 或 AS-4126GS-NBR-LCC)
32台 NVIDIA HGX B200 8-GPU、4U液冷系統(共256顆GPU),配置於5個機架中

氣冷式NVIDIA HGX B200 AI叢集

可在9組機架內配置32個NVIDIA HGX B200 8-GPU 10U氣冷式系統(256個GPU)

  • 經驗證的業界領先架構,可支援全新散熱最佳化氣冷系統平台
  • 單一可擴充單元可支援45TB的HBM3e記憶體
  • 採用 400Gb/s NVIDIASpectrum-X以太網路或 NVIDIAQuantum-2InfiniBand 實現橫向擴展
  • 具備完整 NVIDIA GPUDirect RDMA 與儲存裝置支援或 RoCE 支援的專用儲存架構選項
  • NVIDIA 認證系統節點,全面支援 NVIDIAAI ,包含 NVIDIAAI 與 NVIDIA Run:ai
NVIDIA HGX H100/H200 8 GPU 配置
氣冷式NVIDIA HGX B200系統
下載Datasheet

運算節點

Supermicro 風冷式 8-GPU 系統 (SYS-A22GA-NBRT 或 AS-A126GS-TNBR)
32組 NVIDIA HGX B200 8-GPU、10U風冷系統(共256顆GPU),配置於9個機架中

NVIDIA GB200 NVL72

單一機架內的液冷式Exascale運算系統

  • 72顆 NVIDIA Blackwell B200 顯示卡整合為單一顯示單元,配備龐大的 HBM3e 記憶體池(每機架 13.5TB)
  • 9x NVLink 交換器,每組運算托盤配備 4 個連接埠,可串接 72 顆 GPU,提供 1.8TB/s 的 GPU 間互連效能
  • Supermicro直接液冷技術,具有可支援250kW散熱性能的機架內(In-Rack)冷卻液分配裝置(CDU),以及備援PSU和雙熱插拔幫浦
  • 具備完整 NVIDIA GPUDirect RDMA 與儲存裝置支援或 RoCE 支援的專用儲存架構選項
  • 採用 400Gb/s NVIDIASpectrum™-X以太網路或 NVIDIAQuantum-2InfiniBand 實現橫向擴展
  • 專為全面支援 NVIDIAAI 平台而設計,包括 NVIDIAAI 與 NVIDIA Run:ai
NVIDIA GB200 Grace BlackwellSuperchip
NVIDIA GB200 Grace Blackwell Superchip
下載Datasheet

Compute Tray

獨立Supermicro GB200 Grace Blackwell GPU 系統 (ARS-121GL-NBO-LCC),72 台中的第 1 台
  • ARS-121GL-NBO-LCC
    (不單獨販賣)
5個機架內配置72組NVIDIA Blackwell B200 GPU系統

領先的液冷式AI叢集

可在5組機架內配置32個NVIDIA HGX H100/H200 8-GPU 4U液冷系統(256個GPU)

  • 透過Supermicro的客製化液冷解決方案,可將資料中心運算密度提升一倍,並降低最多40%的電力成本
  • 在單一可擴充式單元中支援256個NVIDIA H100/H200 GPU
  • 在單一可擴充式單元中支援20TB的HBM3(H100)或36TB的HBM3e(H200)
  • 具備完整 NVIDIA GPUDirect RDMA 與儲存裝置支援或 RoCE 支援的專用儲存架構選項
  • 採用 400Gb/s NVIDIASpectrum™-X以太網路或 NVIDIAQuantum-2InfiniBand 實現橫向擴展
  • NVIDIA 認證系統節點,全面支援 NVIDIAAI ,包含 NVIDIAAI 與 NVIDIA Run:ai
NVIDIA HGX H100/H200 8 GPU 配置
NVIDIA HGX H100/H200 8-GPU
下載Datasheet

運算節點

Supermicro 液冷式 8-GPU 系統 (型號:SYS-421GE-TNHR2-LCC 或 AS-4125GS-TNHR2-LCC)
32組 NVIDIA HGX H100/H200 8-GPU、4U液冷系統(共256顆GPU),配置於5個機架中

經認證的設計

可在9個機架中搭載32個NVIDIA HGX H100/H200 8-GPU 8U氣冷式系統(256個GPU)

  • 經認證的業界領先架構,適用於大規模AI基礎設施部署
  • 在單一可擴充式單元中支援256個NVIDIA H100/H200 GPU
  • 在單一可擴充式單元中支援20TB的HBM3(H100)或36TB的HBM3e(H200)
  • 採用 400Gb/s NVIDIASpectrum™-X以太網路或 NVIDIAQuantum-2InfiniBand 實現橫向擴展
  • 可客製化的AI資料管道儲存結構,提供業界領先的平行式檔案系統配置
  • NVIDIA 認證系統節點,全面支援 NVIDIAAI ,包含 NVIDIAAI 與 NVIDIA Run:ai
NVIDIA HGX H100/H200 8 GPU 配置
NVIDIA HGX H100/H200 8-GPU
下載Datasheet

運算節點

Supermicro 風冷式 8-GPU 系統 (SYS-821GE-TNHR 或 AS-8125GS-TNHR)
32組 NVIDIA HGX H100/H200 8 GPU、8U風冷系統(共256顆GPU),配置於9個機架中
資源

某些產品可能未在您所在的地區上市