NVIDIA sigue dominando el sector de la computación de alto rendimiento basada en tarjetas gráficas y lo ha conseguido gracias a las aceleradoras como la A100 y sus núcleos tensoriales. Esa estructura algebraica es muy usada en inteligencia artificial y por tanto que haya dispositivos específicos para calcular tensores es muy buscado en el sector. Ahora la compañía ha anunciado una versión adicional de la A100, en este caso como tarjeta tipo PCIe, la cual incluye 80 GB de memoria HBM2.

Hace unos meses anunció el modelo con 80 GB en formato SXM4, una pequeña placa con un conector propietario de NVIDIA llamado NVLink 3. Este modelo también incluye el NVLink para conectarse a otros modelos tipo PCIe, pero al equipo anfitrión se conecta mediante PCIe 4.0 ×16.

Hay un par de cambios adicionales frente al modelo PCIe de 40 GB de HBM2. El primero es que la frecuencia de funcionamiento de la memoria pasa de los 2.43 Gb/s hasta los 3 Gb/s, que en realidad es la llamada «HBM2E». Teniendo en cuenta el bus de 5120 bits, el ancho de banda pasa de los 1.6 TB/s hasta los 1.9 TB/s. El segundo es que debido a ese aumento de velocidad y a duplicar la memoria, el consumo de la tarjeta pasa de los 250 vatios hasta los 300 vatios.

Junto con esta tarjeta la compañía ha presentado nuevos servidores que la usarán, el HGX A100. También ha indicado que usarán las A100 en la Universidad de Edimburgo para una supercomputadora de nueva generación. Por último, y en el lado de los controladores, NVIDIA ha anunciado la disponibilidad para todo el mundo de lo que denomina GPUDirect Storage. No es más que el que la aceleradora pueda acceder directamente al almacenamiento del equipo para buscar información y llevarla a la VRAM de la tarjeta, eliminando la necesidad de que la CPU se encargue de procesar esa información. Es en lo que se basa el DirectStorage de la Xbox y que llegará próximamente a Windows 11. En el caso de los equipos para cómputo de alto rendimiento, es más importante aún porque se elimina redundancias en el movimiento de datos y por tanto se minimizan potenciales limitaciones en la velocidad de E/S.

Vía: AnandTech.