Comunicae

Los principales fabricantes de servidores del mundo los empoderan con las GPUs NVIDIA A100 para IA

NVIDIA Enterprise y los principales fabricantes de servidores del mundo presentaron sistemas empoderados con las GPU’s NVIDIA A-100 en diferentes diseños y configuraciones para abordar los desafíos más complejos en el campo de la Inteligencia artificial (IA), la Ciencia de Datos (DC) y el Procesamiento de Alto Rendimiento (HPC).

Se esperan más de 50 servidores con tecnología A-100 de proveedores líderes de todo el mundo, incluidos: ASUS, Atos, CISCO, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Inspur, Lenovo, One Stop Systems, Quanta / QCT y Supermicro, luego del lanzamiento del mes pasado de la arquitectura NVIDIA Ampere y la NVIDIA A100 GPU.

La disponibilidad de los servidores varía, con 30 sistemas esperados para los próximos meses y más de 20 para fin de año.

La primera GPU basada en la arquitectura NVIDIA Ampere, la A100 puede aumentar el rendimiento hasta 20 veces más que su predecesora, lo que la convierte en el mayor salto de la compañía en rendimiento de una GPU hasta la fecha. Cuenta con varios avances técnicos, incluida una nueva tecnología de GPU de múltiples GPUs, que permite dividir un solo A100 hasta en siete GPUs separadas para manejar diferentes trabajos de cómputo; tecnología NVIDIA® NVLink® de tercera generación que permite unir varias GPUs para operar como una GPU gigante; y nuevas capacidades de baja densidad estructural que pueden usarse para duplicar el rendimiento de una GPU.

NVIDIA también presentó un form factor PCIe para el A100, que complementa las configuraciones de 4 y 8 vías HGX A100 lanzadas el mes pasado. La adición de una versión PCIe permite a los fabricantes de servidores ofrecer a los clientes un conjunto diverso de ofertas, desde sistemas de GPU A100 individuales hasta servidores con 10 o más GPUs. Estos sistemas aceleran una amplia gama de cargas de trabajo intensivas en cómputo, desde simular el comportamiento molecular para el descubrimiento de medicamentos hasta desarrollar mejores modelos financieros para las aprobaciones de hipotecas.

Los fabricantes de servidores que llevan sistemas NVIDIA A100 a sus clientes incluyen:

ASUS ofrecerá el ESC4000A-E10, que se puede configurar con 4 GPUs PCIe A100 en un solo servidor.

Atos is offering its BullSequana X2415 system with four NVIDIA A100 Tensor Core GPUs.

Cisco planea admitir las GPUs NVIDIA A100 Tensor Core en sus servidores Cisco Unified Computing System y en su sistema de infraestructura hiperconvergente, Cisco HyperFlex.

Dell Technologies planea admitir las GPUs NVIDIA A100 Tensor Core en sus servidores y soluciones PowerEdge que aceleran las cargas de trabajo de borde a núcleo a la nube, al igual que admite otros aceleradores, software y tecnologías de GPU NVIDIA en una amplia gama de ofertas.

● Fujitsu está llevando las GPUs A-100 a su línea de servidores PRIMERGY.

GIGABYTE ofrecerá servidores G481-HA0, G492-Z50 y G492-Z51 que admiten hasta 10 GPUs PCIe A-100, mientras que el servidor G292-Z40 admite hasta ocho.

HPE admitirá GPUs PCIe A-100 en el servidor HPE ProLiant DL380 Gen10, y para cargas de trabajo aceleradas HPC e IA, en el sistema HPE Apollo 6500 Gen10.

Inspur está lanzando ocho sistemas con tecnología NVIDIA A-100, incluidos NF5468M5, NF5468M6 y NF5468A5 con GPU PCIe A-100, NF5488M5-D, NF5488A5, NF5488M6 y NF5688M6 con NVLink de ocho vías y NF5888 con 16-way NVLink.

● Lenovo admitirá GPUs PCIe A100 en sistemas seleccionados, incluido el servidor listo para inteligencia artificial Lenovo ThinkSystem SR670. Lenovo ampliará la disponibilidad a través de su cartera ThinkSystem y ThinkAgile en el otoño.

One Stop Systems ofrecerá su sistema de expansión PCIe OSS 4UV Gen 4 con hasta 8 GPUs NVIDIA A-100 PCIe para permitir a los clientes de IA y HPC escalar sus servidores Gen 4.

Quanta/QCT ofrecerá varios sistemas de servidor QuantaGrid, incluidos D52BV-2U, D43KQ-2U y D52G-4U que admiten hasta 8 GPUs NVIDIA A-100 PCIe.

Supermicro ofrecerá su sistema 4U A + GPU, que admite hasta 8 GPUs NVIDIA A100 PCIe y hasta dos ranuras de expansión PCI-E 4.0 de alto rendimiento adicionales junto con otros servidores GPU 1U, 2U y 4U.

NVIDIA está ampliando su cartera de sistemas certificados NGC-Ready™ certified systems. Al trabajar directamente con NVIDIA, los proveedores de sistemas pueden recibir la certificación NGC-Ready para sus servidores con tecnología A100. La certificación NGC-Ready garantiza a los clientes que los sistemas ofrecerán el rendimiento requerido para ejecutar cargas de trabajo de IA.

Los sistemas preparados para NGC se prueban con el software de IA optimizado para el GPU del registro NVIDIA’s NGC™ registry, que está disponible para sistemas con GPU NVIDIA en data centers, en la nube y en el borde.

NVIDIA presenta la plataforma de IA para minimizar el tiempo de inactividad en los data centers de Super Computación.

ISC Digital. NVIDIA Enterprise presentó hoy la plataforma NVIDIA® Mellanox® UFM® Cyber-AI, que minimiza el tiempo de inactividad en los centros de datos InfiniBand al aprovechar los análisis impulsados por IA para detectar amenazas de seguridad y problemas operativos, así como predecir fallas en la red.

Esta extensión de la cartera de productos de la plataforma UFM, que ha administrado los sistemas InfiniBand durante casi una década, aplica la IA para aprender la cadencia operativa de un data center y los patrones de carga de trabajo de la red, basándose tanto en telemetría histórica como en tiempo real y datos de carga de trabajo. Contra esta línea de base, rastrea el estado del sistema y las modificaciones de red y detecta degradaciones de rendimiento, uso y cambios de perfil.

La nueva plataforma proporciona alertas de comportamiento anormal del sistema y de la aplicación, y posibles fallas y amenazas del sistema, así como también realiza acciones correctivas. También está dirigido a entregar alertas de seguridad en casos de intentos de piratería del sistema para alojar aplicaciones no deseadas, como la minería de criptomonedas. El resultado es un menor tiempo de inactividad del data center, que generalmente cuesta más de $300,000.00 usd. por hora, según una investigación realizada por ITIC.

Apoyo al Ecosistema
Las organizaciones que han estado empleando durante mucho tiempo la plataforma UFM en sus centros de datos han expresado un gran interés en la última oferta.

Ampliando la plataforma UFM
La plataforma UFM Cyber-AI complementa la plataforma UFM Enterprise, que proporciona monitoreo de red, administración, optimización de rendimiento, verificaciones de configuración y administración de cable seguro.

NVIDIA ENTERPRISE también agregó hoy un tercer miembro de la familia UFM, la Plataforma de Telemetría UFM. Esta herramienta captura datos de telemetría de red en tiempo real, que se transmiten a una base de datos local o basada en la nube para monitorear el rendimiento de la red y validar la configuración de la red.

Recursos de apoyo:

Nota de prensa Los principales fabricantes de servidores del mundo los empoderan con las GPUs NVIDIA A100 para IA en comunicae.com.mx

Acerca de Redacción

El autor no ha proporcionado ninguna información.

Comentarios Cerrados

Los comentarios están cerrados. No podrás dejar un comentario en esta entrada.