Los rumores de los últimos meses sitúan el próximo Computex que se celebra del 31 de mayo al 4 de junio como el momento en el que tanto AMD como Nvidia van a presentar la alineación de nuevas tarjetas gráficas de consumo. Mientras tanto, esta semana Nvidia ha presentado finalmente la arquitectura Pascal.

Lo ha hecho durante la presentación de la tarjeta gráfica para computación de alto rendimiento Tesla P100, que incluye el chip GP100 totalmente desbloqueado con 3.584 sombreadores y una impresionante frecuencia de reloj de 1480 MHz. Es una subida frente a los 3.072 núcleos CUDA y 1114 MHz del chip GM200 (Maxwell 2) utilizado en la Tesla M40 y la GTX 980 Ti. El GP100 estará disponible a nivel comercial en junio con el servidor de 129.000 dólares DGX-1.

La arquitectura y potencia de la Tesla P100 orienta hacia dónde se dirige la arquitectura Pascal: mejorar consumos al reducir a un nodo de 16 nm, pero mejorar la potencia subiendo las frecuencias. Las gallinas que salen por las que entran, y de Pascal se puede esperar un consumo similar con más rendimiento. Si bien queda la incógnita de qué va a ocurrir con los sombreadores asíncronos de DirectX 12.

pascalmodule
Nvidia Pascal

En este caso algunos cambios de la arquitectura Pascal están orientados a mejorar el procesamiento paralelo por lo que no tengo mucha duda de que tiene soporte a ellos. Y aunque no los tuviera, si Nvidia mejora la potencia de Pascal mediante subidas de frecuencias y núcleos ese 10 a 20 % que le separa de las tarjetas gráficas de AMD en el terreno de las DirectX 12, en la práctica tampoco se necesitaría implementarlos.

Personalmente lo que veo cada vez más claro es que las mejoras de arquitectura GCN de AMD no van a ir mucho más allá que de pulido y reorientación a las gráficas de 2017 con nueva arquitectura, y que la única mejora sustancial es rebajar el proceso de fabricación a 14 nm para reducir notablemente el consumo de sus tarjetas gráficas. También seguramente con una subida de frecuencias. Pero en ambos casos, tanto AMD como Nvidia usarán sobre todo GDDR5, a la que le queda todavía mucha vida gracias también a GDDR5X.

Tecnología

Videojuegos

Cine y cultura