En la era de la IA, una unidad de cálculo ya no se mide sólo por el número de servidores. Las GPU interconectadas, las CPU, la memoria, el almacenamiento y estos recursos a través de múltiples nodos en bastidores construyen la inteligencia artificial actual. La infraestructura requiere tejidos de red de alta velocidad y baja latencia, y tecnologías de refrigeración y suministro de energía cuidadosamente diseñadas para mantener un rendimiento y una eficiencia óptimos para cada entorno de centro de datos. La solución SuperCluster de Supermicroproporciona soluciones de centro de datos de IA de extremo a extremo para la IA generativa y los grandes modelos de lenguaje (LLM) en rápida evolución.
Integración completa a escala
Diseño y construcción de racks completos y clusters con una capacidad de fabricación global de hasta 5,000 bastidores al mes
Probar, validar, implantar con el servicio in situ
Los probados procesos de prueba L11, L12 validan a fondo la eficacia y eficiencia operativas antes del envío
Refrigeración por líquido/refrigeración por aire
Solución de refrigeración líquida o por aire totalmente integrada con placas frías para GPU y CPU, unidades de distribución de refrigeración y colectores
Gestión de suministros e inventarios
Un único proveedor para suministrar bastidores totalmente integrados de forma rápida y puntual para reducir el tiempo hasta la solución para una rápida implantación
La solución completa de centro de datos llave en mano acelera el tiempo de entrega para casos de uso empresarial de misión crítica, y elimina la complejidad de construir un gran clúster, que anteriormente sólo era posible mediante el ajuste de diseño intensivo y la optimización que consume tiempo de la supercomputación.
Clúster de IA NVIDIA HGX B200 refrigerado por líquido
Con hasta 32 sistemas NVIDIA HGX B200 de 8 GPU, 4U y refrigeración líquida (256 GPU) en 5 racks
- Implante el pináculo del rendimiento de entrenamiento e inferencia de IA con 256 GPU NVIDIA B200 en una unidad escalable(5 racks)
- Refrigeración líquida directa Supermicro con unidad de distribución de refrigerante (CDU) en rack de 250 kW de capacidad con PSU redundante y bombas dobles intercambiables en caliente
- 45 TB de memoria HBM3e en una unidad escalable
- Escalabilidad con NVIDIA Spectrum™-X Ethernet a 400 Gb/s o NVIDIA Quantum-2 InfiniBand
- Tejido de almacenamiento de datos personalizable con opciones de sistemas de archivos paralelos líderes del sector
- Soporte para NVIDIA AI Enterprise Platform incluyendo microservicios NVIDIA NIM

Nodo informático


Clúster de IA NVIDIA HGX B200 refrigerado por aire
Con 32 sistemas NVIDIA HGX B200 de 8 GPU, 10U refrigerados por aire (256 GPU) en 9 racks
- Arquitectura líder en la industria probada con una nueva plataforma de sistema refrigerado por aire térmicamente optimizada
- 45 TB de memoria HBM3e en una unidad escalable
- Escalabilidad con NVIDIA Spectrum-X Ethernet a 400 Gb/s o NVIDIA Quantum-2 InfiniBand
- Tejido de almacenamiento de datos personalizable con opciones de sistemas de archivos paralelos líderes del sector
- Soporte para NVIDIA AI Enterprise Platform incluyendo microservicios NVIDIA NIM

Nodo informático


NVIDIA GB200 NVL72
Ordenador Exascale refrigerado por líquido en un solo bastidor
- 72x GPUs NVIDIA Blackwell B200 actuando como una sola GPU con un enorme pool de memoria HBM3e(13,5TB por rack)
- Conmutador NVLink 9x, 4 puertos por bandeja de cálculo que conectan 72 GPU para proporcionar una interconexión de GPU a GPU de 1,8 TB/s.
- Refrigeración líquida directa Supermicro con unidad de distribución de refrigerante (CDU) en rack de 250 kW de capacidad con PSU redundante y bombas dobles intercambiables en caliente
- Solución integral de refrigeración líquida de Supermicroy servicios completos de despliegue in situ
- Preparado para tecnologías de red avanzadas para escalado, incluidas NVIDIA BlueField®-3 SuperNIC, Spectrum-X, Quantum-2 y plataformas de red de 800 Gb/s de próxima generación.

Bandeja de computación

- ARS-121GL-NBO-LCC
(no se vende por separado)

Clúster líder de IA con refrigeración líquida
Con 32 sistemas NVIDIA HGX H100/H200 de 8 GPU, 4U y refrigeración líquida (256 GPU) en 5 racks
- Duplicación de la densidad de cálculo a través de la solución de refrigeración líquida personalizada de Supermicro con una reducción de hasta el 40% en el coste de electricidad para el centro de datos.
- 256 GPU NVIDIA H100/H200 en una unidad escalable
- 20 TB de HBM3 con H100 o 36 TB de HBM3e con H200 en una unidad escalable
- Conexión en red 1:1 con cada GPU para permitir RDMA y almacenamiento NVIDIA GPUDirect para el entrenamiento de modelos de lenguaje de gran tamaño con hasta billones de parámetros.
- Tejido de almacenamiento de canalización de datos de IA personalizable con opciones de sistemas de archivos paralelos líderes del sector
- Compatible con la plataforma NVIDIA Quantum-2 InfiniBand y Spectrum-X Ethernet
- Certificado para NVIDIA AI Enterprise Platform, incluidos los microservicios NVIDIA NIM

Nodo informático


Diseño probado
Con 32 sistemas NVIDIA HGX H100/H200 de 8U refrigerados por aire (256 GPU) en 9 racks
- Arquitectura probada líder del sector para implantaciones de infraestructuras de IA a gran escala
- 256 GPU NVIDIA H100/H200 en una unidad escalable
- 20 TB de HBM3 con H100 o 36 TB de HBM3e con H200 en una unidad escalable
- Conexión en red 1:1 con cada GPU para permitir RDMA y almacenamiento NVIDIA GPUDirect para el entrenamiento de modelos de lenguaje de gran tamaño con hasta billones de parámetros.
- Tejido de almacenamiento de canalización de datos de IA personalizable con opciones de sistemas de archivos paralelos líderes del sector
- Compatible con la plataforma NVIDIA Quantum-2 InfiniBand y Spectrum-X Ethernet
- Certificado para NVIDIA AI Enterprise Platform, incluidos los microservicios NVIDIA NIM

Nodo informático

