跳至主要内容

您的 NVIDIA Blackwell 之旅从这里开始

在这个人工智能变革的时代,不断演进的规模化法则持续突破数据中心能力的极限。我们与英伟达紧密合作开发的最新Blackwell架构解决方案,凭借新一代风冷与液冷架构,实现了前所未有的计算性能、密度与能效。 凭借可快速部署的AI数据中心构建模块解决方案Supermicro 您开启NVIDIA Blackwell之旅的首选合作伙伴,提供可持续的前沿解决方案,加速AI创新进程。

端到端人工智能数据中心构建模块解决方案优势

广泛的风冷和液冷系统,提供多种 CPU 选项、全套数据中心管理软件套件、交钥匙机架级集成、全套网络、布线和集群级 L12 验证、全球交付、支持和服务。

Supermicro Blackwell支持系统精选
丰富的经验
Supermicro数据中心构建模块解决方案,为全球规模最大的液冷人工智能数据中心部署提供动力。
灵活的产品
风冷或水冷、GPU 优化、多种系统和机架外形、CPU、存储、网络选项。可根据您的需求进行优化。
液体冷却先锋
经验证、可扩展、即插即用的液冷解决方案,助力人工智能革命。专为英伟达™(NVIDIA®)Blackwell 架构设计。
快速上网时间
利用全球能力、世界一流的部署专业知识和一站式服务加速交付,快速将您的人工智能投入生产。

最紧凑的超大规模人工智能平台

NVIDIA HGX™ B300系统专为开放计算项目ORV3设计优化,单机架可容纳多达144个GPU。

Supermicro-OU液冷式NVIDIA HGX B300系统为超大规模部署提供无与伦比的GPU密度。该系统遵循OCP ORV3规范并采用先进的DLC-2技术,每个紧凑型8-GPU节点可适配21英寸机架,实现每机架最多18个节点、总计144个GPU的部署。 该系统采用盲插式歧管连接与模块化GPU/CPU托盘架构,在将机架占地面积、功耗及散热成本大幅降低的同时,可为每块B300 GPU提供高达1100W的TDP支持。其卓越的可维护性与极致性能密度,使其成为人工智能工厂的理想之选。

单机架内最多可容纳144个液冷GPU
1.8TB/s GPU-GPU互连
每GPU配备288 GB HBM3e内存
21英寸 OCP ORV3 标准化机架设计
为 800Gb/s 计算 Fabric 集成 NVIDIAConnectX-8SuperNIC
Supermicro 机架,配备18台液冷式2OU前置I/O NVIDIA HGX B300 8-GPU系统

人工智能推理的Ultra 性能

用于 NVIDIA HGX™ B300 的最先进的风冷和水冷架构

Supermicro HGX平台为全球众多大型AI集群提供动力,为当今变革性AI应用提供计算输出。该8U风冷系统现搭载NVIDIA BlackwellUltra,通过八块1100W HGX B300 GPU和总计2.3TB的HBM3e内存实现性能最大化。 八个前置OSFP端口集成ConnectX®-8SuperNIC网卡(800Gb/s速率),支持NVIDIA Quantum-X800 InfiniBand或Spectrum-X™以太网集群的即插即用部署。 4U液冷系统采用DLC-2技术,热捕获率达98%,实现数据中心40%的能耗节约。Supermicro 构建模块解决方案®(DCBBS)结合现场部署专长,提供涵盖液冷、网络拓扑布线、供电及热管理的完整解决方案,加速人工智能工厂上线进程。

一个机架中最多可安装 64 个(液冷)GPU
1.8TB/s GPU-GPU 互连 每 GPU 288 GB HBM3e
双 IntelXeon 6 或AMD EPYC 9005/9004 处理器
为 800Gb/s 计算 Fabric 集成 NVIDIAConnectX-8SuperNIC
Supermicro 机架,配备8台液冷式4U前置I/O NVIDIA HGX B300 8-GPU系统Supermicro 机架,配备4台风冷式8U前置I/O NVIDIA HGX B300 8-GPU系统

在机架中实现超大规模计算

针对 NVIDIA GB300 NVL72 的端对端水冷解决方案

Supermicro GB300 NVL72可应对从基础模型训练到大规模推理推断的AI计算需求。该系统将卓越的AI性能与Supermicro直接液体冷却技术相结合,实现最高计算密度与效率。基于NVIDIA BlackwellUltra,单机架集成72块NVIDIA B300 GPU,每块配备288GB HBM3e内存。 凭借1.8TB/s NVLink互连技术,GB300 NVL72单节点即可实现百亿亿次级超级计算机性能。升级的网络架构使计算架构性能翻倍,支持800Gb/s传输速率。Supermicro强大的制造能力和端到端服务,加速了液冷AI工厂的部署进程,显著缩短了GB300 NVL72集群的上市周期。

36 个英伟达™(NVIDIA®)Grace CPU 和 72 个英伟达™(NVIDIA®)BlackwellUltra GPU
所有 72 个 GPU 和 CPU 的 GPU-GPU 互连速度达 1.8TB/s
36x 英伟达 72 核 Grace Arm Neoverse V2 CPU
250 千瓦 CDU 液-液或 200 千瓦液-气侧车选项
Supermicro 机架,适用于NVIDIA GB300 NVL72超级集群Supermicro 机架,适用于NVIDIA GB200 NVL72超级集群

进化型风冷系统

针对英伟达 HGX B200 8GPU 重新设计和优化的最畅销风冷系统

全新风冷式NVIDIA HGX B200 8-GPU系统采用增强型散热架构,支持CPU、内存、存储及网络的高灵活配置,并优化了前/后侧维护便捷性。 每个机架可安装多达4台新型8U/10U风冷系统并实现完全集成,在保持与上一代相同密度的同时,提供高达15倍的推理性能和3倍的训练性能。Supermicro HGX B200系统均采用1:1的GPU与网卡配比,支持NVIDIABlueField®-3或NVIDIAConnectX®-7技术,可在高性能计算架构中实现扩展。

一个机架上最多可安装 32 个 GPU
1.8TB/s GPU-GPU 互连 每 GPU 180GB HBM3e
双 IntelXeon 6 或AMD EPYC 9005/9004 系列处理器
新一代风冷散热器和更强的可维护性
Supermicro 机架,配备5台风冷式8U前置I/O NVIDIA HGX B200 8-GPU系统Supermicro 机架,配备4台风冷式10U后置I/O NVIDIA HGX B200 8-GPU系统

新一代水冷系统

单个机架中最多可安装 96 个 NVIDIA HGX™ B200 GPU,实现最高的可扩展性和效率

全新前置I/O液冷式4U NVIDIA HGX B2008-GPU系统Supermicro技术。直接液冷技术现可捕获高达92%的服务器组件发热量,包括CPU、GPU、PCIe交换机、DIMM、VRM和PSU,实现数据中心能耗最高40%的节省,噪音水平低至50分贝。 该新架构在前代产品基础上进一步提升了效率与可维护性,前代产品专为NVIDIA HGX H100/H2008-GPU系统设计。 该机架级设计提供42U、48U或52U三种配置,采用新型垂直冷却液分配管路(CDM),彻底解放了原本被水平管路占用的宝贵机架空间。这使得42U机架可容纳8套系统(共64块NVIDIA Blackwell GPU),52U机架则可容纳多达12套系统(共96块NVIDIA GPU)。

一个机架上最多可安装 96 个 GPU
1.8TB/s GPU-GPU 互连 每 GPU 180GB HBM3e
双 IntelXeon 6 或AMD EPYC 9005/9004 系列处理器
Supermicro 技术可实现数据中心能耗最高40%的节省
Supermicro 机架,配备8台液冷式4U前置I/O NVIDIA HGX B200 8-GPU系统Supermicro 机架,配备8台液冷式4U后置I/O NVIDIA HGX B200 8-GPU系统
由英伟达™(NVIDIA®)Blackwell 提供支持的超级集群

即插即用的可扩展装置可随时部署到 NVIDIA Blackwell 中

全新SuperCluster设计提供42U、48U或52U机架配置,适用于风冷或液冷数据中心。其在集中式机架中集成NVIDIA Quantum InfiniBand或NVIDIA Spectrum™网络技术,液冷SuperCluster可实现无阻塞的 在五个42U/48U机架中实现256-GPU可扩展单元,或在九个52U机架中扩展至768-GPU可扩展单元,满足最先进的人工智能数据中心部署需求。Supermicro 大规模部署提供行内CDU选项,以及无需设施供水的水冷转风冷机架解决方案。 风冷版SuperCluster延续上一代行业领先的成熟架构,通过九个48U机架实现256-GPU可扩展单元。

进一步了解超级集群

即插即用的可扩展装置可随时部署到 NVIDIA Blackwell 中

NVIDIA Blackwell 端到端数据中心构建模块解决方案和部署服务

Supermicro 全球制造规模的综合性一站式解决方案供应商,提供数据中心级解决方案设计、液冷技术、交换机、布线系统、全套数据中心管理软件、L11和L12解决方案验证、现场安装以及专业支持与服务。 凭借遍布圣何塞、欧洲及亚洲的生产基地Supermicro 在液冷或风冷机架系统领域Supermicro 无可匹敌的制造能力,确保及时交付、降低总体拥有成本(TCO)并保持品质稳定。

机架和数据中心集成服务

即插即用的可扩展装置可随时部署到 NVIDIA Blackwell 中
英伟达™(NVIDIA®)Blackwell 优化基础架构和软件

SupermicroVIDIA Blackwell解决方案通过集中式机架优化NVIDIA Quantum InfiniBand或NVIDIA Spectrum™网络架构,实现最佳基础设施扩展与GPU集群部署,可在五台机架中构建256 GPU的无阻塞可扩展单元,或在九台机架中扩展至768 GPU的可扩展单元。 该架构原生支持NVIDIA企业级软件,结合Supermicro在全球最大液冷数据中心部署领域的专业经验,为当今最具雄心的AI数据中心项目提供卓越能效与无与伦比的上线速度。

英伟达量子 InfiniBand 和频谱以太网

从mainstream 企业服务器到高性能超级计算机,NVIDIA Quantum InfiniBand 和 Spectrum™ 网络技术激活了最具扩展性、速度最快且最安全的端到端网络。

英伟达 Quantum-2 InfiniBand 平台
英伟达Quantum-2InfiniBand 平台
英伟达™ Spectrum-X
英伟达™ Spectrum-X

英伟达超级网卡

Supermicro 采用NVIDIA SuperNIC网络卡的前沿:包括适用于InfiniBand的NVIDIA ConnectX以及适用于以太网的NVIDIABlueField-3SuperNIC。SupermicroVIDIA HGX B200系统均配备1:1网络连接至每块GPU,支持NVIDIA GPUDirect RDMA(InfiniBand)或RoCE(以太网)技术,实现大规模并行AI计算。

英伟达™(NVIDIA®)ConnectX 超级网卡
英伟达™(NVIDIA®)ConnectX 超级网卡
英伟达™(NVIDIA®)BlueField-3 超级网卡
英伟达™NVIDIA®)BlueField-3超级网卡

英伟达™(NVIDIA®)人工智能企业软件

全面访问 NVIDIA 应用程序框架、API、SDK、工具包和优化器,并能够部署 AI 蓝图、NVIDIA NIM、RAG 和最新优化的 AI 基础模型。英伟达™(NVIDIA®)人工智能企业软件凭借企业级安全性、支持和稳定性,简化了生产级人工智能应用的开发和部署,确保从原型到生产的平稳过渡。

英伟达™(NVIDIA®)H200 张量核 GPU 解决方案

为您的AI工作负载选择合适的系统。Supermicro 最全面的系统产品组合,专为NVIDIA Hopper和Ada Lovelace世代平台优化,涵盖NVIDIA HGX H200、H200 NVL、GH200 Superchip及L40S等产品。体验点燃AI革命引擎的强大力量。

了解更多

特色资源

某些产品可能不在您所在地区提供