La conferencia del GTC (GPU Technology Conference) de Nvidia solo ha dejado noticias sobre inteligencia artificial y computación como era de esperar. Los que estén esperando nuevas tarjetas gráficas de consumo tendrán que esperar al próximo lunes 4 de junio a las 13:00 hora local de Taiwán —las 7:00 a. m. en España— para ver si hay novedades al respecto. Mientras tanto, Nvidia ha anunciado un nuevo equipo para centros de datos, el HGX-2.

Este equipo está orientado a la computación de alto rendimiento (HPC), y en su interior se encuentran dieciséis Tesla V100 con 512 GB de RAM, comunicadas por doce NVSwitch que usan una comunicación NVLink, ambos desarrollados por la compañía, frente a las ocho Tesla V100 del modelo HGX-1.

Tiene una potencia de cómputo de 2 PFLOPS en tareas relacionadas con el aprendizaje profundo —p. ej. reconocimiento de objetos en imágenes—, 250 TFLOPS en cálculos precisión simple (FP32) y 125 TFLOPS en doble precisión (FP64). Por comparación, una GTX 1080 solo dispone de una potencia de cómputo de 8.5 TFLOPS en precisión simple. Los 2 PFLOPS de potencia de cómputo se consiguen gracias a los 10 240 núcleos tensoriales que tiene en total, que están destinados a cálculo tensorial, una entidad algebraica usada en inteligencia artificial.

Otra diferencia entre el HGX-1 y el HGX-2 es que la velocidad de NVSwitch es de 2.4 TB/s frente a los 300 GB/s del NVLink del primer modelo, lo que permitirá que la comunicación entre los elementos no sea un limitador y tengan suficiente ancho de banda para mover grandes cantidades de datos entre todos los chips.

Las empresas que ayudarán a Nvidia a llevar el HGX-2 al sector empresarial son Foxconn, Inventec, Lenovo, QCT, Quanta Computer, Supermicro, Wistron y Wiwynn.