NVIDIA GB300 NVL72
Liquid Cooled Rack-Scale Solution with 72 NVIDIA B300 GPUs and 36 Grace CPUs
- GPU: 72 NVIDIA B300 GPUs via NVIDIA Grace Blackwell Superchips
- CPU: 36 NVIDIA Grace CPUs via NVIDIA Grace Blackwell Superchips
- Memory: Up to 21 TB HBM3e (GPU Memory), Up to 17 TB LPDDR5X (System Memory)
- Drives: up to 144 E1.S PCIe 5.0 drive bays
Universal GPU Systems
Modular Building Block Design, Future Proof Open-Standards Based Platform in 4U, 5U, 8U, or 10U for Large Scale AI training and HPC Applications
- GPU: NVIDIA HGX H100/H200/B200/B300, AMD Instinct MI350 Series/MI325X/MI300X/MI250 OAM Accelerator, Intel Data Center GPU Max Series
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB
- Drives: Up to 24 Hot-swap E1.S, U.2 or 2.5" NVMe/SATA drives
Liquid-Cooled Universal GPU Systems
Direct-to-chip liquid-cooled systems for high-density AI infrastructure at scale.
- GPU: NVIDIA HGX H100/H200/B200
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB
- Drives: Up to 24 Hot-swap U.2 or 2.5" NVMe/SATA drives
3U/4U/5U GPU Lines with PCIe 5.0
Maximum Acceleration and Flexibility for AI, Deep Learning and HPC Applications
- GPU: Up to 10 NVIDIA H100 PCIe GPUs, or up to 10 double-width PCIe GPUs
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB or 12TB
- Drives: Up to 24 Hot-swap 2.5" SATA/SAS/NVMe
NVIDIA MGX™ Systems
Modular Building Block Platform Supporting Today's and Future GPUs, CPUs, and DPUs
- GPU: Up to 4 NVIDIA PCIe GPUs including NVIDIA RTX PRO™ 6000 Blackwell Server Edition, H200 NVL, H100 NVL, and L40S
- CPU: NVIDIA GH200 Grace Hopper™ Superchip, Grace™ CPU Superchip, or Intel® Xeon®
- Memory: Up to 960GB ingegrated LPDDR5X memory (Grace Hopper or Grace CPU Superchip) or 16 DIMMs, up to 4TB DRAM (Intel)
- Drives: Up to 8 E1.S + 4 M.2 drives
AMD APU Systems
Multi-processor system combining CPU and GPU, Designed for the Convergence of AI and HPC
- GPU: 4 AMD Instinct MI300A Accelerated Processing Unit (APU)
- CPU: AMD Instinct™ MI300A Accelerated Processing Unit (APU)
- Memory: Up to 512GB integrated HBM3 memory (4x 128GB)
- Drives: Up to 8 2.5" NVMe or Optional 24 2.5" SATA/SAS via storage add-on card + 2 M.2 drives
4U GPU Lines with PCIe 4.0
Flexible Design for AI and Graphically Intensive Workloads, Supporting Up to 10 GPUs
- GPU: NVIDIA HGX A100 8-GPU with NVLink, or up to 10 double-width PCIe GPUs
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 8TB DRAM or 12TB DRAM + PMem
- Drives: Up to 24 Hot-swap 2.5" SATA/SAS/NVMe
2U 2-Node Multi-GPU with PCIe 4.0
Dense and Resource-saving Multi-GPU Architecture for Cloud-Scale Data Center Applications
- GPU: Up to 3 double-width PCIe GPUs per node
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 8 DIMMs, 2TB per node
- Drives: Up to 2 front hot-swap 2.5” U.2 per node
GPU Workstation
Flexible Solution for AI/Deep Learning Practitioners and High-end Graphics Professionals
- GPU: Up to 4 double-width PCIe GPUs
- CPU: Intel® Xeon®
- Memory: Up to 16 DIMMs, 6TB
- Drives: Up to 8 hot-swap 2.5” SATA/NVMe
Supermicro JumpStart 評測:NVIDIA HGX B200 一週體驗
Supermicro 的 JumpStart 專案對於硬體評估採取了截然不同的方法。不同於在共享實驗室環境中進行簡短、預設的演示,JumpStart 讓合格客戶能夠免費、在限定時間內,直接存取一系列真實的生產伺服器。
透過Intel® TDX、NVIDIA機密運算,以及搭載NVIDIA HGX™ B200 GPU的Supermicro伺服器,保護AI工作負載:A Foundation for Confidential AI at Scale
本白皮書探討Intel的Trust Domain Extensions(TDX)、NVIDIA機密運算,以及基於HGX B200的Supermicro系統,如何為新一代AI基礎設施提供強大、安全、可擴充的平台。
櫻花網路光纖雲端服務加速AI 服務
Sakura Internet Koukaryoku 運用 Supermicro 的 8U SYS-821GE-TNR 系統打造新服務,該系統整合了 NVIDIA HGX™ 8-GPU AI 超級運算平台,加速生成式 AI 應用。
Supermicro SYS-821GE-TNHR 8x NVIDIA H200 GPU 氣冷式 AI 伺服器
今天我們將繼續探討大型 AI 伺服器,並聚焦於 Supermicro SYS-821GE-TNHR。當人們討論 Supermicro 在 AI 伺服器領域的卓越實力時,這款氣冷式 NVIDIA 伺服器是市場上獨樹一幟的系統之一。
Supermicro 與 Intel GAUDI 3 系統推進企業 AI 基礎設施
使用 IntelXeon 6 處理器的高頻寬AI 系統,適用於跨企業規模的高效LLM 與 GenAI 訓練與推論
Lamini 選擇 Supermicro GPU 伺服器用於大型語言模型 (LLM) 調校服務
Lamini 採用搭載 AMD Instinct™ MI300X 加速器的 Supermicro GPU 伺服器,能夠高速提供 LLM 調校服務
Supermicro 4U AMD EPYC GPU 伺服器提供 AI 彈性 (AS-4125GS-TNRT)
Supermicro 長期以來提供了多種形式和尺寸的 GPU 伺服器,在此評測中我們無法一一詳述。今天,我們將探討其相對較新的 4U 風冷 GPU 伺服器,該伺服器支援兩顆 AMD EPYC 9004 系列 CPU、PCIe Gen5,並可選擇八張雙寬或十二張單寬的附加 GPU 卡。
Supermicro 與 NVIDIA 共同打造解決方案,以加速汽車和航空航太產業的 CFD 模擬
搭載 NVIDIA 資料中心 GPU 的 Supermicro 伺服器大幅加速 CFD 模擬,縮短製造企業的產品上市時間。
深入探討液冷式 Supermicro SYS-821GE-TNHR 8x NVIDIA H100 AI 伺服器
今天我們將探討液冷式 Supermicro SYS-821GE-TNHR 伺服器。這是 Supermicro 獨特的 8x NVIDIA H100 系統,其採用液冷技術,可降低散熱成本及功耗。由於我們已取得相關照片,因此決定撰寫此文。
Petrobras 採購由 Atos 整合的 Supermicro 伺服器,以降低成本並提高探勘準確度
Supermicro 系統助力 Petrobras 躋身 2022 年 11 月 Top500 排行榜第 33 名
Supermicro 與 ProphetStor 最大化多租戶 LLM 訓練的 GPU 效率
在AI 和機器學習的動態世界中,在多租戶環境中有效管理 GPU 資源是最重要的,尤其是在大型語言模型LLM) 訓練方面。
Supermicro 伺服器為 SEEWEB 增加 GPU 產品,為要求嚴苛的客戶提供更快的 AI 和 HPC 工作負載結果
Seeweb 選擇 Supermicro GPU 伺服器,以滿足客戶對 HPC 和 AI 工作負載的需求
3000W AMD EPYC 伺服器拆解,由 Level1Techs 的 Wendell 主講
我們正在檢視一款針對 AI 和機器學習進行最佳化的伺服器。Supermicro 投入大量心力,將盡可能多的功能整合到 2114GT-DNR (2U2N) 這款密度最佳化伺服器中。這是一個非常精巧的結構:這個 2U 機箱內有兩個系統。兩個冗餘電源供應器各為 2,600W,我們將探討為何需要如此大的功率。它搭載了六顆 AMD MI210 Instinct GPU 和雙 EPYC 處理器。看看 Supermicro 在這款伺服器設計中所投入的工程水準。
Supermicro TECHTalk:高密度 AI 訓練/深度學習伺服器
我們最新的資料中心系統內建最高密度的先進 NVIDIA Ampere GPU 與快速 GPU-GPU 互連,以及第 3 代 Intel® Xeon® Scalable 處理器。在本 TECHTalk 中,我們將展示如何在 4U 機架高度的封裝中實現無與倫比的AI 效能。
混合式 2U2N GPU 工作站-伺服器平台 Supermicro SYS-210GP-DNR 實測
今天我們將結束最新系列,探討 Supermicro SYS-210GP-DNR,這是一款 2U、2 節點、6 GPU 系統,Patrick 最近在 Supermicro 總部進行了實測。
Supermicro SYS-220GQ-TNAR+ 一款 NVIDIA Redstone 2U 伺服器
今天我們將探討 Supermicro SYS-220GQ-TNAR+,Patrick 最近在 Supermicro 總部進行了實測。
揭示 GPU 系統設計的飛躍 – Supermicro SC21 TECHTalk 與 IDC
主講人:Josh Grossman,Supermicro 首席產品經理;以及 Peter Rutten,IDC 基礎架構系統研究總監
關鍵任務伺服器解決方案
利用虛擬化的 NVIDIA A100 GPU 最大化AI 開發與交付
配備 NVIDIA HGX A100 的 Supermicro 系統提供一套靈活的解決方案,以支援 NVIDIA Virtual Compute Server (vCS) 和 NVIDIA A100 GPU,實現 AI 開發和交付,以執行小型和大型 AI 模型。
Supermicro SuperMinute:2U 雙節點伺服器
Supermicro 突破性的多節點 GPU/CPU 平台在市場上獨樹一幟。憑藉我們先進的 Building Block Solutions® 設計以及節省資源的架構,此系統整合了最先進的 CPU 和 GPU 引擎以及先進的高密度儲存,採用節省空間的外形設計,提供無與倫比的能源效率和靈活性。
超級分鐘:4U系統搭載HGX A100八GPU配置
針對要求最嚴苛的 AI 工作負載,Supermicro 打造了效能最高、上市速度最快的伺服器,基於 NVIDIA A100™ Tensor Core GPU。結合最新版本的 NVIDIA® NVLink™ 和 NVIDIA NVSwitch™ 技術,這些伺服器可在單一 4U 系統中提供高達 5 PetaFLOPS 的 AI 效能。
SuperMinute:搭載HGX A100四GPU的2U系統
全新 AS -2124GQ-NART 伺服器採用強大的 NVIDIA A100 Tensor Core GPU 及 HGX A100 4-GPU 底板。系統支援 PCI-E Gen 4,可快速連接CPU 及高速網路擴充卡。