Dejando a un lado la situación actual del precio de los chips de DRAM, el sector está buscando formas de mejorar la densidad de bits en los módulos y que tengan conexiones de mayor velocidad, pero no solo a través de chips más rápidos. El estándar CAMM 2 aprobado por la JEDEC a finales de 2023 todavía no se ha generalizado en el sector consumo por diversas razones, pero en el de los centros de datos es posible que lo haga antes.

NVIDIA lo ha estado usando en servidores, y ahora tanto AMD como Qualcomm estarían valorando su uso en sus productos de cómputo, que estos días al final terminan siendo utilizados para inteligencia artificial. NVIDIA ha usado el formato SO-CAMM, más pequeño que el CAMM, para añadir hasta 1.2 TB/s de ancho de banda y hasta 1.5 TB de memoria LPDDR5X a sus procesadores Vera.

AMD tiene procesadores EPYC y aceleradoras Instinct que serían las beneficiadas de la mayor capacidad de los módulos SO-CAMM 2 en un formato más compacto. Qualcomm ofrece algunas aceleradoras para empresas, como las AI200 y AI250, aunque son sistemas que se pondrán a la venta entre este año y el que viene.

Vía: TechPowerUp.