服务器设计为边缘计算带来开放、高密度的计算能力
Supermicro、Red Hat、Senao、Lanner 和 Intel 携手打造一系列边缘计算解决方案,这些解决方案具备 AI 就绪能力,并可扩展以实现工作负载整合。

Supermicro、Red Hat、Senao、Lanner 和 Intel 携手打造一系列边缘计算解决方案,这些解决方案具备 AI 就绪能力,并可扩展以实现工作负载整合。

Supermicro、Red Hat、Senao、Lanner 和 Intel 携手打造一系列边缘计算解决方案,这些解决方案具备 AI 就绪能力,并可扩展以实现工作负载整合。
Supermicro 和 NVIDIA 的 AI 工厂是完整的交钥匙解决方案,旨在简化大规模企业级 AI 部署,可加快上线时间和创收时间。这些端到端 AI 基础设施解决方案结合了高性能 GPU 计算、AI 软件、高速网络和可扩展存储,以加速数据中心就绪的 AI 工作负载。

全新的Supermicro Super AI Station,专为AI推理、模型训练和微调设计,搭载NVIDIA BG300 Grace™ Blackwell Ultra桌面超级芯片。

从 AI 工厂到数据中心再到边缘,提供强大且灵活的多工作负载加速能力

Supermicro 和 NVIDIA 提供的 AI 工厂是完整的交钥匙解决方案,简化了任意规模的 AI 部署,率先推向市场,并由机架级集成提供支持,带来全面的 AI 信心。
欢迎加入 Supermicro 技术赋能团队的 Kitana 和 Rudy,他们将介绍 AI 开发的理想解决方案——Super AI Station。Supermicro 的 ARS-511GD-NB-LCC 搭载 NVIDIA GB300 Grace Blackwell Ultra 桌面超级芯片,是一款桌面级液冷系统,可在您的办公桌下提供数据中心级的 AI 性能,用于大型模型的训练、微调和高吞吐量推理。
Supermicro BigTwin® 以高能效提供最大化的计算和存储密度,使其成为在任何能源受限环境中,对可扩展性、灵活性和性能有要求的现代工作负载的理想选择。
Supermicro SuperBlade® 以紧凑的外形尺寸提供无与伦比的计算密度和卓越性能,助力数据中心以更少资源实现更多目标。

Supermicro 的后门热交换器 (RDHx) 是一种即插即用、空液混合的数据中心解决方案,提供高达 80kW 的冷却能力,具备通用机架兼容性、冗余风扇(4-5 个单元)、智能防冷凝以及 Redfish、SNMP 和 Web UI 等协议,可实现高密度 AI 和 HPC 配置中的高效散热。

Supermicro 的后门热交换器 (RDHx) 是一种即插即用、空液混合的数据中心解决方案,提供高达 50kW 的冷却能力,具备通用机架兼容性、冗余风扇(6-10 个单元)、智能防冷凝以及 Redfish、SNMP 和 Web UI 等协议,可实现高密度 AI 和 HPC 配置中的高效散热。

Supermicro BigTwin® 上的 SteelDome 为现代化基础设施提供了一条经过验证的高密度路径,可在单一平台上统一存储、虚拟化和编排。它旨在实现无中断迁移的扩展,并支持具有强大弹性的性能密集型工作负载,集群优先软件与集群友好型 BigTwin 硬件的结合使客户能够快速部署、运行和自信地扩展。

由 Supermicro 系统和 NVIDIA 加速计算提供支持的专用 AI 工厂,使运营商能够部署安全、可扩展、GPU 密集型 AI 环境,支持生成式 AI (GenAI)、检索增强生成 (RAG)、大型语言模型 (LLM) 训练和实时推理,同时带来主权 AI 即服务等新的收入机会。

主权人工智能与混合GPU云受益于集成解决方案

xiNAS 是 Xinnor 专为 AI、HPC 及其他吞吐量密集型环境设计的高性能 NFS 服务器解决方案。本文档展示了 xiNAS 在 Supermicro NVMe 服务器上的验证结果,证明了其在多客户端和多服务器场景(包括降级和重建状态)下的性能和弹性。