Ir al contenido principal
Visualización de 601 - 610 de 772

Los despliegues de 5G se acelerarán para apoyar la continua transformación digital

La 5G se ha convertido rápidamente en una tecnología que afectará a todos en todas partes. Aunque las redes aún se encuentran en la fase inicial de despliegue, la implantación mundial ya ha comenzado. Casi todos los días vemos un nuevo anuncio sobre otro despliegue de 5G. GSMA Intelligence ha informado de que casi 110 operadores de casi 50 países habrán lanzado nuevas redes 5G para finales de 2020.

Más

Reseña del servidor Supermicro

El Supermicro es un servidor 1U diseñado para organizaciones que buscan una solución de alta gama en entornos que pueden beneficiarse de una potencia de cálculo densa, como la virtualización y la computación en la nube. El 1024US-TR4 viene equipado con una placa base H11DSU-iN, que cuenta con soporte de doble zócalo para procesadoresEPYC AMD EPYC y hasta 8 TB de SDRAM ECC DDR4 3200 MHz registrada a través de sus 32 ranuras DIMM.

Más

Cómo EDSFF está haciendo que la tecnología NVMe® sea aún más fría

Con los requisitos de los operadores de centros de datos para acceder más rápido que nunca a cantidades masivas de datos, la elección de las tecnologías de almacenamiento y la infraestructura asociada se ha convertido en una consideración crítica cuando los departamentos de TI diseñan e implementan sus centros de datos de próxima generación. A medida que las tecnologías de almacenamiento siguen aumentando tanto en rendimiento como en capacidad, es necesario tomar algunas decisiones para ofrecer resultados rápidos a los clientes empresariales.

Más

Combatir la pandemia desde la sala de servidores: Cómo la HPC hace posible la investigación de vanguardia

La informática de alto rendimiento (HPC) puede permitir a los seres humanos comprender el mundo que nos rodea, desde el comportamiento atómico hasta cómo se expande el universo. Mientras que la HPC solía asociarse a un "superordenador", los entornos HPC actuales se crean utilizando de cientos a miles de servidores individuales, conectados por un tejido de red de alta velocidad y baja latencia. Para aprovechar simultáneamente miles de elementos informáticos o "núcleos" separados, las aplicaciones deben diseñarse e implementarse para trabajar en paralelo, compartiendo los resultados intermedios según sea necesario.

Más

Supermicro su cartera con el servidor 4U de mayor densidad con NVIDIA HGX A100s 8-GPU y 8U SuperBlade 20 GPU PCI-E A100.

Supermicro anuncia la duplicación de sus capacidades de GPU con un nuevo servidor 4U compatible con ocho GPU NVIDIA HGX A100. La flexible gama de soluciones impulsadas por las GPU NVIDIA y el software para GPU del ecosistema NGC de NVIDIA proporciona las soluciones modulares adecuados para diversas tareas a organizaciones que abordan distintos verticales: desde la inferencia de IA sobre modelos desarrollados hasta la HPC o la formación de alta gama.

Más

Supermicro para la investigación sobre la COVID-19 y la física

No todo el mundo relaciona Supermicro la supercomputación. Sin embargo, tanto el Center for Scientific Computing (CSC), una iniciativa del Instituto de Estudios Avanzados de Fráncfort y la Universidad Johann Wolfgang Goethe de Fráncfort, como el Laboratorio Nacional Lawrence Livermore utilizan ahora plataformas del fabricante, una con AMD AMD y otra con AMD.

Más

¿Qué situará al LLNL en el centro de la supercomputación estadounidense en 2020?

El mundo de la HPC, sobre todo en EE.UU., está a la espera de la próxima serie de transiciones a máquinas mucho más grandes con capacidades de exaescala. El año que viene por estas fechas, la clasificación bianual de los 500 sistemas más potentes se refrescará en la parte superior a medida que Frontier, El Capitán, Aurora y otros superordenadores del DoE entren en funcionamiento.

Más

A veces HPC significa gran memoria, no gran computación

No todas las cargas de trabajo de HPC o analíticas -es decir, un solucionador algorítmico y los datos que mastica- encajan bien en un espacio de memoria de 128 GB o 256 GB o incluso de 512 GB, y a veces el conjunto de datos es bastante grande y funciona mejor con un espacio de memoria mayor en lugar de trocearlo en partes más pequeñas y distribuirlo entre nodos con la misma cantidad de computación bruta.

Más