Sistemas de servidor GPU
Sistemas GPU sin rival: Servidores optimizados para aprendizaje profundo para el centro de datos moderno
NVIDIA GB200 NVL72
Liquid Cooled Rack-Scale Solution with 72 NVIDIA B200 GPUs and 36 Grace CPUs
- GPU: 72 NVIDIA B200 GPUs via NVIDIA GB200 Grace Blackwell Superchips
- CPU: 36 NVIDIA Grace CPUs via NVIDIA GB200 Grace Blackwell Superchips
- Memory: Up to 13.4 TB HBM3e (GPU Memory), Up to 17 TB LPDDR5X (System Memory)
- Drives: 144 E1.S PCIe 5.0 drive bays
Universal GPU Systems
Modular Building Block Design, Future Proof Open-Standards Based Platform in 4U, 5U, 8U, or 10U for Large Scale AI training and HPC Applications
- GPU: NVIDIA HGX H100/H200/B200 4-GPU/8-GPU, AMD Instinct MI350 Series/MI325X/MI300X/MI250 OAM Accelerator, Intel Data Center GPU Max Series
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB
- Drives: Up to 24 Hot-swap E1.S, U.2 or 2.5" NVMe/SATA drives
Liquid-Cooled Universal GPU Systems
Direct-to-chip liquid-cooled systems for high-density AI infrastructure at scale.
- GPU: NVIDIA HGX H100/H200/B200 4-GPU/8-GPUs
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB
- Drives: Up to 24 Hot-swap U.2 or 2.5" NVMe/SATA drives
4U/5U GPU Lines with PCIe 5.0
Maximum Acceleration and Flexibility for AI/Deep Learning and HPC Applications
- GPU: Up to 10 NVIDIA H100 PCIe GPUs, or up to 10 double-width PCIe GPUs
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB or 12TB
- Drives: Up to 24 Hot-swap 2.5" SATA/SAS/NVMe
NVIDIA MGX™ Systems
Modular Building Block Platform Supporting Today's and Future GPUs, CPUs, and DPUs
- GPU: Up to 4 NVIDIA PCIe GPUs including NVIDIA RTX PRO™ 6000 Blackwell Server Edition, H200 NVL, H100 NVL, and L40S
- CPU: NVIDIA GH200 Grace Hopper™ Superchip, Grace™ CPU Superchip, or Intel® Xeon®
- Memory: Up to 960GB ingegrated LPDDR5X memory (Grace Hopper or Grace CPU Superchip) or 16 DIMMs, up to 4TB DRAM (Intel)
- Drives: Up to 8 E1.S + 4 M.2 drives
AMD APU Systems
Multi-processor system combining CPU and GPU, Designed for the Convergence of AI and HPC
- GPU: 4 AMD Instinct MI300A Accelerated Processing Unit (APU)
- CPU: AMD Instinct™ MI300A Accelerated Processing Unit (APU)
- Memory: Up to 512GB integrated HBM3 memory (4x 128GB)
- Drives: Up to 8 2.5" NVMe or Optional 24 2.5" SATA/SAS via storage add-on card + 2 M.2 drives
4U GPU Lines with PCIe 4.0
Flexible Design for AI and Graphically Intensive Workloads, Supporting Up to 10 GPUs
- GPU: NVIDIA HGX A100 8-GPU with NVLink, or up to 10 double-width PCIe GPUs
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 8TB DRAM or 12TB DRAM + PMem
- Drives: Up to 24 Hot-swap 2.5" SATA/SAS/NVMe
2U 2-Node Multi-GPU with PCIe 4.0
Dense and Resource-saving Multi-GPU Architecture for Cloud-Scale Data Center Applications
- GPU: Up to 3 double-width PCIe GPUs per node
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 8 DIMMs, 2TB per node
- Drives: Up to 2 front hot-swap 2.5” U.2 per node
GPU Workstation
Flexible Solution for AI/Deep Learning Practitioners and High-end Graphics Professionals
- GPU: Up to 4 double-width PCIe GPUs
- CPU: Intel® Xeon®
- Memory: Up to 16 DIMMs, 6TB
- Drives: Up to 8 hot-swap 2.5” SATA/NVMe
Los servicios en la nube de Sakura Internet Koukaryoku aceleran los servicios de IA
Sakura Internet Koukaryoku crea nuevos servicios con el sistema 8U SYS-821GE-TNR de Supermicro, que incorpora la plataforma de supercomputación de IA NVIDIA HGX™ de 8 GPU y acelera las aplicaciones de IA generativa
Servidor AI Supermicro SYS-821GE-TNHR 8x GPU NVIDIA H200 refrigerado por aire
Hoy continuamos nuestra mirada a los servidores de IA masivos con un vistazo al Supermicro SYS-821GE-TNHR. Cuando la gente habla de las proezas de los servidores de IA de Supermicro, este es uno de los sistemas que se diferencia en el mercado por ser un servidor NVIDIA refrigerado por aire.
Supermicro con GAUDI 3 AI ofrece un rendimiento escalable para los requisitos de la IA
Gama de soluciones optimizadas para centros de datos de cualquier tamaño y carga de trabajo Para nuevos servicios y mayor satisfacción del cliente
Los sistemas GAUDI 3 de Supermicro e Intel hacen avanzar la infraestructura de IA empresarial
Sistema de IA de gran ancho de banda que utiliza procesadores Intel Xeon 6 para el entrenamiento y la inferencia eficientes de LLM y GenAI a escala empresarial
Lamini elige los servidores GPU Supermicro para su oferta de ajuste LLM
Utilizando servidores de GPU Supermicro con los aceleradores AMD Instinct™ MI300X, Lamini puede ofrecer el ajuste LLM a gran velocidad
El sistema Supermicro Grace ofrece un rendimiento 4 veces superior para ANSYS® LS-DYNA
Los sistemas Superchip con CPU Grace Supermicro multiplican por 4 el rendimiento con el mismo consumo energético
Applied Digital construye una nube de IA masiva con servidores GPU Supermicro
Applied Digital ofrece a los usuarios lo último en infraestructura escalable de IA y HPC para formación en IA y simulaciones HPC con servidores de alto rendimiento Supermicro
Los servidores GPU AMD EPYC 4U de Supermicro ofrecen flexibilidad de IA (AS-4125GS-TNRT)
Supermicro lleva mucho tiempo ofreciendo servidores GPU en más formas y tamaños de los que tenemos tiempo de comentar en este análisis. Hoy analizamos su relativamente nuevo servidor GPU de 4U refrigerado por aire que admite dos CPU AMD EPYC de la serie 9004, PCIe Gen5 y una selección de ocho tarjetas GPU complementarias de doble ancho o 12 de ancho simple.
Supermicro y Nvidia crean soluciones para acelerar las simulaciones CFD para las industrias automovilística y aeroespacial
Los servidores Supermicro con GPU NVIDIA Datacenter aceleran considerablemente las simulaciones CFD y reducen el tiempo de comercialización para las empresas manufactureras
Un vistazo al servidor Supermicro SYS-821GE-TNHR 8x NVIDIA H100 AI con refrigeración líquida
Hoy queríamos echar un vistazo al servidor Supermicro SYS-821GE-TNHR con refrigeración líquida. Se trata del sistema 8x NVIDIA H100 de Supermicrocon un giro: está refrigerado por líquido para reducir los costes de refrigeración y el consumo de energía. Ya que teníamos las fotos, se nos ocurrió ponerlo en un artículo.
Opciones de acceso a las GPU PCIe en una arquitectura de servidor de alto rendimiento
Las opciones de configuración de los servidores GPU Supermicro ofrecen el máximo rendimiento para las cargas de trabajo
Petrobras adquiere servidores Supermicro integrados por Atos para reducir costes y aumentar la precisión de las exploraciones
Los sistemas Supermicro impulsan a Petrobras a la posición nº 33 en la clasificación Top500 de noviembre de 2022
Supermicro y ProphetStor maximizan la eficiencia de la GPU para la formación multitenant LLM
En el dinámico mundo de la IA y el aprendizaje automático, la gestión eficiente de los recursos de la GPU en entornos multiusuario es primordial, sobre todo para el entrenamiento de grandes modelos lingüísticos (LLM).
Los servidores Supermicro aumentan la oferta de GPU para SEEWEB, ofreciendo a los clientes más exigentes resultados más rápidos para las cargas de trabajo de IA y HPC
Seeweb selecciona los servidores GPU Supermicro para satisfacer las demandas de los clientes de cargas de trabajo de HPC e IA
Servidor GPU universal H12
Diseño de servidor basado en estándares abiertos para una mayor flexibilidad arquitectónica
3000W AMD Epyc Server Tear-Down, ft. Wendell de Level1Techs
Estamos ante un servidor optimizado para la IA y el aprendizaje automático. Supermicro ha hecho un gran esfuerzo para meter todo lo posible en el 2114GT-DNR (2U2N), un servidor de densidad optimizada. Se trata de una construcción realmente genial: hay dos sistemas en este chasis 2U. Las dos fuentes de alimentación redundantes son de 2.600 W cada una y veremos por qué necesitamos tanta potencia. Alberga seis GPU AMD MI210 Instinct y los procesadores Epyc duales. Vea el nivel de ingeniería que Supermicro ha puesto en el diseño de este servidor.
H12 2U Multi-GPU de 2 nodos
Diseño multinodo para la densidad de cálculo y aceleración de la GPU
NEC avanza en la investigación de la IA con sistemas avanzados de GPU de Supermicro
NEC utiliza servidores de GPU Supermicro con NVIDIA® A100 para construir un superordenador destinado a la investigación de la IA (En japonés)

Supermicro TECHTalk: Servidor de formación y aprendizaje profundo de IA de alta densidad
Nuestro sistema para centros de datos más reciente incluye la mayor densidad de GPU NVIDIA Ampere avanzadas con una rápida interconexión GPU-GPU y procesadores Intel® Xeon® Scalable de 3ª generación. En esta TECHTalk, mostraremos cómo hacemos posible un rendimiento de IA sin precedentes en un paquete de 4U de altura de rack.
Plataforma híbrida 2U2N GPU estación de trabajo-servidor Supermicro SYS-210GP-DNR Hands-on
Hoy terminamos nuestra última serie echando un vistazo al Supermicro SYS-210GP-DNR, un sistema de 2U, 2 nodos y 6 GPU que Patrick pudo probar recientemente en la sede Supermicro .
Supermicro SYS-220GQ-TNAR+ un servidor NVIDIA Redstone 2U
Hoy analizamos el Supermicro SYS-220GQ-TNAR+ que Patrick pudo probar recientemente en la sede Supermicro .

Presentación del salto en el diseño de sistemas de GPU - Supermicro SC21 TECHTalk con IDC
Presentado por Josh Grossman, Director Principal de Producto, Supermicro y Peter Rutten, Director de Investigación, Sistemas de Infraestructura, IDC
Soluciones para servidores de misión crítica
Maximización del desarrollo y la entrega de IA con las GPU NVIDIA A100 virtualizadas
Los sistemas Supermicro con NVIDIA HGX A100 ofrecen un conjunto flexible de soluciones compatibles con NVIDIA Virtual Compute Server (vCS) y las GPU NVIDIA A100, lo que permite ejecutar modelos de IA pequeños y grandes.

Supermicro SuperMinute: Servidor de 2 nodos 2U
La revolucionaria plataforma multinodo GPU/CPU de Supermicro no se parece a ningún producto existente en el mercado. Con nuestro avanzado diseño Building Block Solutions® y una arquitectura que ahorra recursos, este sistema aprovecha los motores de CPU y GPU más avanzados junto con un almacenamiento avanzado de alta densidad en un factor de forma que ahorra espacio, ofreciendo una eficiencia energética y una flexibilidad inigualables.

SuperMinute: Sistema 4U con HGX A100 8-GPU
Para las cargas de trabajo de IA más exigentes, Supermicro construye los servidores de mayor rendimiento y más rápidos del mercado basados en las GPU NVIDIA A100™ Tensor Core. Con la última versión de las tecnologías NVIDIA® NVLink™ y NVIDIA NVSwitch™, estos servidores pueden ofrecer hasta 5 PetaFLOPS de rendimiento de IA en un único sistema de 4U.

SuperMinute: Sistema 2U con HGX A100 4-GPU
El nuevo servidor AS -2124GQ-NART cuenta con la potencia de las GPU NVIDIA A100 Tensor Core y la placa base HGX A100 de 4 GPU. El sistema admite PCI-E Gen 4 para una rápida conexión CPU-GPU y tarjetas de expansión de red de alta velocidad.
Soluciones de infraestructura de escritorio virtual de alto rendimiento aceleradas por GPU con Supermicro Ultra SuperServers
Libro blanco del servidor 1U 4 GPU
Modelos disponibles
Product Group | Hidden | Order | SKU | Description | Link | Image | Generation | Coming | New | Global | Cooling Type | Max GPU | Supported GPUs | GPU-GPU | CPU | CPU Type | DIMM Slots | Drive Size | Drives | Networking | Form Factor | Total PCI-E Slots# | Total Power | GPU Type | Interface | Redundant Power | Applications | Gold Series | Buy Now |
---|