El entrenamiento de inteligencias artificiales necesitan la mayor cantidad de memoria posible en las aceleradoras, por lo que el desarrollo de la HBM se ha acelerado muchísimo en el último lustro. Así que tras pasar rápidamente a la HBM3, el sector va a cambiar a finales de año o principios del que viene a la HBM4. Su desarrollo se completó hace meses, y ahora las principales marcas están en las pruebas de producción. Por su parte, la estadounidense Micron ha indicado que ya está enviando muestras de su HBM4 a «varios clientes clave».
Este tipo de memoria aumenta de 1024 bits a 2048 bits su bus de datos, y aporta una velocidad de 2 TB/s, una mejora del 60 % respecto a la HBM3E de 1.2 TB/s. Los chips que se están proporcionando apilan doce capas de HBM4 para un total de 36 GB de capacidad. En un diseño ahora estándar de ocho chips de HBM por GPU, eso serían 288 GB disponibles para entrenamiento en las aceleradoras.
La actual B200 de NVIDIA tiene 192 GB de HBM3E a través de ocho chips de 24 GB, así que esto también permitirá un 50 % más de memoria disponible por GPU para cómputo.
Vía: TechPowerUp.