跳转到主要内容

Supermicro 推出搭载 NVIDIA A100 GPU 的全集成式系统,以扩展产品组合,使单台 4U 服务器达到 5 PetaFLOPS 的 AI 性能水平

Supermicro 显著提升了行业内涵盖面最广且优化用于 AI、深度学习、数据科学和计算工作负荷的 GPU 服务器产品组合,同时提供新款 NVIDIA A100 GPU、第三代 NVIDIA NVLink,以及 NVIDIA NVSwitch 的全方位支持

加州圣何赛,2020 年 5 月 14 日 — Super Micro Computer, Inc. (SMCI), 作为企业计算、存储、网络解决方案和绿色计算技术的全球领先者,今日宣布推出两款适用于人工智能(AI)深度学习应用的新系统,使配备全新 NVIDIA A100™ Tensor Core GPU 的第三代NVIDIA HGX™ 技术得以全面提升,同时还为公司品类多样的 1U、2U、4U 和 10U GPU 服务器产品组合提供全方位支持。NVIDIA A100 是首个采用弹性设计,且将培训、推理、HPC 和分析融为一体的多示例 GPU。

“通过扩展我们行业领先的 GPU 系统和 NVIDIA HGX-2 系统技术产品组合,Supermicro 将推出一个全新 2U 系统,此系统应用新款 NVIDIA HGX™ A100 4 GPU 主板(之前的代码名称为 Redstone)以及一个全新 4U 系统,该系统基于新款具有 5 PetaFLOPS AI 性能水平的 NVIDIA HGX A100 8 GPU 主板(之前的代码名称为 Delta)。”Supermicro 首席执行官兼总裁 Charles Liang 说道。“采用GPU加速的计算在革新,并将继续用于数据中心的转型,Supermicro 由此将为客户带来具有前沿技术水平的系统进步,以帮助其实现各种计算规模的加速最大化,并同时对GPU应用进行优化。这些新系统将显著提升所有用于 HPC、数据分析、深度学习和深度学习推理的加速工作负荷。”

作为 HPC 和 AI 应用的平衡数据平台,Supermicro 全新2U系统搭载4个采用 PCI-E 4.0 的直连式 NVIDIA A100 Tensor Core GPU,以实现性能最大化,以及用于 GPU 到 GPU 互联的 NVIDIA NVLink™ 技术,最高速度可达 600GB 每秒,从而提升了 NVIDIA HGX A100 4 GPU 主板性能。这款设计先进的 GPU 系统,加速了计算、网络和存储性能,且支持单个 PCI-E 4.0 x8 以及最多 4 个用于 GPUDirect RDMA 高速网卡和存储的 PCI-E 4.0 x16 扩展槽,例如可支持最大带宽 200Gb 每秒的 InfiniBand™ HDR™。

“随着AI模型面临更高层次的挑战如准确会话 AI、深度推荐系统和个性化医疗等更高层面的技术难题,AI型号的复杂程度正呈现爆炸式增长趋势。”NVIDIA 加速计算业务部总经理兼副总裁 Ian Buck 说道。“Supermicro 将 NVIDIA HGX A100 平台用于其新款服务器,由此为客户带来强大的产品性能和可扩展性,从而研究人员可采用前所未有的速度为最复杂的Al网络进行培训。”

Supermicro 新款 4U 系统采用AI和机器学习应用优化,支持 8 个 A100 Tensor Core GPU。 采用 8 个 GPU 的 4U 规格,尤其适合需要随着其处理要求的提升而扩大其应用规模的客户。新款4U系统将搭载一块 NVIDIA HGX A100 8 GPU 主板,其中配备 8 个 A100 GPU 多对多(all-to-all)连接至 NVIDIA NVSwitch™ ,以实现 600GB 每秒的GPU到GPU最大带宽,以及8个用于 GPUDirect RDMA 高速网卡的扩展槽。这款扩展平台尤其适合深度学习应用,数据中心可将其用于创建下一代 AI,同时支持 10 个 x16 扩展槽,以最大化提升数据科研人员的生产效率。

通过配备新款 NVIDIA A100 GPU,涵盖 Supermicro 品类众多的 1U、2U、4U 和 10U 多 GPU 服务器产品组合,其性能的显著提升,客户可拭目以待。Supermicro 全新推出的 A+ GPU 系统支持最多8个全高度双宽(或单宽)GPU,其中通过直插式 PCI-E 4.0 x16 连接CPU到GPU通道,无需采用任何 PCI-E 交换机,即能获得最低的时延性和最高的带宽,以实现最大化加速。此系统还支持最多3个额外的高性能 PCI-E 4.0扩展槽,可用于多种用途,包括最高 100G 的高性能网络连接传输。附加的 AIOM 插槽可支持 Supermicro AIOM 卡或 OCP 3.0 夹层卡。

作为 AI 系统技术的领先者,Supermicro 提供采用多GPU优化的散热设计,为 AI、深度学习和 HPC 应用带来最高水准的性能和可靠性。Supermicro 采用 1U、2U、4U 和 10U 机架式 GPU 系统;Utra、BigTwin™ 和支持嵌入式系统的 GPU;以及用于我们 8U SuperBlade® 的 GPU Blade 模块,提供行业内最为全面、最具深度的各类 GPU 系统,以用于从边缘到云端的相关应用。

Supermicro 计划将全新的 EGX A100 配置添加至其最先进的服务器产品组合,以最大化提升边缘安全性和超高性能水平。EGX A100 集中式加速器结合了 Mellanox SmartNIC,其中采用基于全新 NVIDIA Ampere 架构的 GPU,使企业能够更为安全地运行边缘 AI (AI at the edge)。