Sistemas de servidor GPU
Sistemas GPU sin rival: Servidores optimizados para aprendizaje profundo para el centro de datos moderno
Universal GPU Systems
Modular Building Block Design, Future Proof Open-Standards Based Platform in 4U, 5U, 8U, or 10U for Large Scale AI training and HPC Applications
- GPU: NVIDIA HGX H100/H200/B200/B300, AMD Instinct MI350 Series/MI325X/MI300X/MI250 OAM Accelerator, Intel Data Center GPU Max Series
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB
- Drives: Up to 24 Hot-swap E1.S, U.2 or 2.5" NVMe/SATA drives
Liquid-Cooled Universal GPU Systems
Direct-to-chip liquid-cooled systems for high-density AI infrastructure at scale.
- GPU: NVIDIA HGX H100/H200/B200
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB
- Drives: Up to 24 Hot-swap U.2 or 2.5" NVMe/SATA drives
3U/4U/5U GPU Lines with PCIe 5.0
Maximum Acceleration and Flexibility for AI, Deep Learning and HPC Applications
- GPU: Up to 10 NVIDIA H100 PCIe GPUs, or up to 10 double-width PCIe GPUs
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 9TB or 12TB
- Drives: Up to 24 Hot-swap 2.5" SATA/SAS/NVMe
NVIDIA MGX™ Systems
Modular Building Block Platform Supporting Today's and Future GPUs, CPUs, and DPUs
- GPU: Up to 4 NVIDIA PCIe GPUs including NVIDIA RTX PRO™ 6000 Blackwell Server Edition, H200 NVL, H100 NVL, and L40S
- CPU: NVIDIA GH200 Grace Hopper™ Superchip, Grace™ CPU Superchip, or Intel® Xeon®
- Memory: Up to 960GB ingegrated LPDDR5X memory (Grace Hopper or Grace CPU Superchip) or 16 DIMMs, up to 4TB DRAM (Intel)
- Drives: Up to 8 E1.S + 4 M.2 drives
AMD APU Systems
Multi-processor system combining CPU and GPU, Designed for the Convergence of AI and HPC
- GPU: 4 AMD Instinct MI300A Accelerated Processing Unit (APU)
- CPU: AMD Instinct™ MI300A Accelerated Processing Unit (APU)
- Memory: Up to 512GB integrated HBM3 memory (4x 128GB)
- Drives: Up to 8 2.5" NVMe or Optional 24 2.5" SATA/SAS via storage add-on card + 2 M.2 drives
4U GPU Lines with PCIe 4.0
Flexible Design for AI and Graphically Intensive Workloads, Supporting Up to 10 GPUs
- GPU: NVIDIA HGX A100 8-GPU with NVLink, or up to 10 double-width PCIe GPUs
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 32 DIMMs, 8TB DRAM or 12TB DRAM + PMem
- Drives: Up to 24 Hot-swap 2.5" SATA/SAS/NVMe
2U 2-Node Multi-GPU with PCIe 4.0
Dense and Resource-saving Multi-GPU Architecture for Cloud-Scale Data Center Applications
- GPU: Up to 3 double-width PCIe GPUs per node
- CPU: Intel® Xeon® or AMD EPYC™
- Memory: Up to 8 DIMMs, 2TB per node
- Drives: Up to 2 front hot-swap 2.5” U.2 per node
GPU Workstation
Flexible Solution for AI/Deep Learning Practitioners and High-end Graphics Professionals
- GPU: Up to 4 double-width PCIe GPUs
- CPU: Intel® Xeon®
- Memory: Up to 16 DIMMs, 6TB
- Drives: Up to 8 hot-swap 2.5” SATA/NVMe
Reseña de Supermicro : Una semana con una NVIDIA HGX B200
El programa JumpStart Supermicroadopta un enfoque muy diferente para la evaluación de hardware. En lugar de una breve demostración con guion en un entorno de laboratorio compartido, JumpStart ofrece a los clientes cualificados acceso gratuito, por tiempo limitado y sin restricciones a un catálogo de servidores de producción reales.
Protección de las cargas de trabajo de IA con Intel® TDX, NVIDIA Confidential Computing y Supermicro con GPU NVIDIA HGX™ B200: una base para la IA confidencial a gran escala
Este informe técnico analiza cómo las extensiones de dominio de confianza (TDX) de Intel y la computación confidencial de NVIDIA con los sistemas basados en HGX B200 Supermicroproporcionan conjuntamente una plataforma potente, segura y escalable para la infraestructura de IA de próxima generación.
Los servicios en la nube de Sakura Internet Koukaryoku aceleran los servicios de IA
Sakura Internet Koukaryoku crea nuevos servicios con el sistema 8U SYS-821GE-TNR Supermicro, que incorpora la plataforma de supercomputación con IA NVIDIA HGX™ de 8 GPU, lo que acelera las aplicaciones de IA generativa.
Servidor AI Supermicro con 8 GPU NVIDIA H200 y refrigeración por aire
Hoy continuamos nuestro análisis de los servidores de IA masivos con un vistazo al Supermicro . Cuando se habla de las prestaciones de los servidores de IA Supermicro, este es uno de los sistemas que destaca en el mercado por ser un servidor NVIDIA refrigerado por aire.
Supermicro GAUDI 3 AI ofrece un rendimiento escalable para las necesidades de IA
Gama de soluciones optimizadas para centros de datos de cualquier tamaño y carga de trabajo Para nuevos servicios y mayor satisfacción del cliente
Los sistemas GAUDI 3 Supermicro Intel mejoran la infraestructura de IA empresarial
Sistema de IA de gran ancho de banda que utiliza procesadores Intel Xeon 6 para el entrenamiento y la inferencia eficientes de LLM y GenAI a escala empresarial
Lamini elige los servidores Supermicro para su oferta de ajuste de LLM
Gracias al uso de servidores Supermicro con aceleradores AMD Instinct™ MI300X, Lamini puede ofrecer ajuste LLM a alta velocidad.
El sistema Supermicro ofrece un rendimiento cuatro veces superior para ANSYS® LS-DYNA®
Los sistemas Superchip con CPU Supermicro ofrecen un rendimiento cuatro veces superior con el mismo consumo energético.
Applied Digital construye una enorme nube de IA con servidores Supermicro
Applied Digital ofrece a los usuarios lo último en infraestructura escalable de IA y HPC para el entrenamiento de IA y simulaciones HPC con servidores Supermicro rendimiento Supermicro .
Los servidores Supermicro AMD EPYC ofrecen flexibilidad para la inteligencia artificial (AS-4125GS-TNRT)
Supermicro mucho Supermicro ofreciendo servidores GPU en más formas y tamaños de los que tenemos tiempo para comentar en esta reseña. Hoy analizamos su relativamente nuevo servidor GPU 4U refrigerado por aire, que admite dos CPU AMD EPYC serieEPYC , PCIe Gen5 y una selección de ocho tarjetas GPU adicionales de doble ancho o 12 de ancho simple.
Supermicro Nvidia crean soluciones para acelerar las simulaciones CFD para las industrias automotriz y aeroespacial
Supermicro con GPU NVIDIA Datacenter proporcionan una aceleración significativa para las simulaciones CFD, lo que reduce el tiempo de comercialización para las empresas manufactureras.
Un vistazo al servidor Supermicro 8x NVIDIA H100 AI con refrigeración líquida
Hoy queríamos echar un vistazo al servidor Supermicro refrigerado por líquido. Se trata del sistema 8x NVIDIA H100 Supermicrocon una novedad: está refrigerado por líquido para reducir los costes de refrigeración y el consumo de energía. Como teníamos las fotos, pensamos en incluirlo en un artículo.
Opciones de acceso a las GPU PCIe en una arquitectura de servidor de alto rendimiento
Comprender las opciones de configuración de los servidores Supermicro permite obtener el máximo rendimiento para las cargas de trabajo.
Petrobras adquiere Supermicro integrados por Atos para reducir costes y aumentar la precisión de la exploración
Supermicro impulsan a Petrobras hasta la posición n.º 33 en la clasificación Top500 de noviembre de 2022.
Supermicro ProphetStor maximizan la eficiencia de la GPU para el entrenamiento LLM multitenant
En el dinámico mundo de la IA y el aprendizaje automático, la gestión eficiente de los recursos de la GPU en entornos multiusuario es primordial, sobre todo para el entrenamiento de grandes modelos lingüísticos (LLM).
Supermicro amplían la oferta de GPU para SEEWEB, lo que proporciona a los clientes más exigentes resultados más rápidos para las cargas de trabajo de IA y HPC.
Seeweb elige los servidores Supermicro para satisfacer las demandas de sus clientes en materia de cargas de trabajo de HPC e IA
Servidor GPU universal H12
Diseño de servidor basado en estándares abiertos para una mayor flexibilidad arquitectónica
3000W AMD Epyc Server Tear-Down, ft. Wendell de Level1Techs
Estamos ante un servidor optimizado para IA y aprendizaje automático. Supermicro trabajado mucho para incluir todo lo posible en el 2114GT-DNR (2U2N), un servidor optimizado en cuanto a densidad. Se trata de una construcción realmente interesante: hay dos sistemas en este chasis 2U. Las dos fuentes de alimentación redundantes son de 2600 W cada una y veremos por qué necesitamos tanta potencia. Aloja seis GPU AMD Instinct y los Epyc duales. Observen el nivel de ingeniería Supermicro en el diseño de este servidor.
H12 2U Multi-GPU de 2 nodos
Diseño multinodo para la densidad de cálculo y aceleración de la GPU
NEC avanza en la investigación sobre IA con los sistemas GPU avanzados de Supermicro
NEC utiliza servidores Supermicro con NVIDIA® A100 para construir un superordenador destinado a la investigación en inteligencia artificial (en japonés).
Supermicro : Servidor de alta densidad para entrenamiento de IA/aprendizaje profundo
Nuestro sistema para centros de datos más reciente incluye la mayor densidad de GPU NVIDIA Ampere avanzadas con una rápida interconexión GPU-GPU y procesadores Intel® Xeon® Scalable de 3ª generación. En esta TECHTalk, mostraremos cómo hacemos posible un rendimiento de IA sin precedentes en un paquete de 4U de altura de rack.
Plataforma híbrida de servidor y estación de trabajo con GPU 2U2N Supermicro Prueba práctica
Hoy terminamos nuestra última serie echando un vistazo al Supermicro , un sistema 2U de 2 nodos y 6 GPU con el que Patrick ha podido trabajar recientemente en Supermicro .
Supermicro , un servidor NVIDIA Redstone 2U
Hoy analizamos el Supermicro , con el que Patrick ha podido trabajar recientemente en Supermicro .
Presentación del avance en el diseño de sistemas GPU: Supermicro TECHTalk con IDC
Presentado por Josh Grossman, director principal de productos Supermicro Peter Rutten, director de investigación de sistemas de infraestructura de IDC.
Soluciones para servidores de misión crítica
Maximización del desarrollo y la entrega de IA con las GPU NVIDIA A100 virtualizadas
Supermicro con NVIDIA HGX A100 ofrecen un conjunto flexible de soluciones compatibles con NVIDIA Virtual Compute Server (vCS) y las GPU NVIDIA A100, lo que permite desarrollar y ejecutar modelos de IA a pequeña y gran escala.
Supermicro : servidor de 2 nodos y 2U
La innovadora plataforma GPU/CPU multinodo Supermicro no se parece a ningún otro producto existente en el mercado. Con nuestro avanzado diseño Building Block Solutions® y nuestra arquitectura de ahorro de recursos, este sistema aprovecha los motores CPU y GPU más avanzados, junto con un almacenamiento avanzado de alta densidad en un formato que ahorra espacio, lo que proporciona una eficiencia energética y una flexibilidad sin igual.
SuperMinute: Sistema 4U con HGX A100 8-GPU
Para las cargas de trabajo de IA más exigentes, Supermicro los servidores de mayor rendimiento y más rápidos del mercado basados en las GPU NVIDIA A100™ Tensor Core. Con la última versión de las tecnologías NVIDIA® NVLink™ y NVIDIA NVSwitch™, estos servidores pueden ofrecer hasta 5 PetaFLOPS de rendimiento de IA en un solo sistema 4U.
SuperMinute: Sistema 2U con HGX A100 4-GPU
El nuevo servidor AS -2124GQ-NART cuenta con la potencia de las GPU NVIDIA A100 Tensor Core y la placa base HGX A100 de 4 GPU. El sistema admite PCI-E Gen 4 para una rápida conexión CPU-GPU y tarjetas de expansión de red de alta velocidad.