Nvidia anunció la GeForce RTX 3080 como el doble de potente que la RTX 2080, y probablemente tenga razón. El problema que se está viendo en los primeros análisis publicados es que los procesadores actuales no están preparados para exprimir la tarjeta gráfica al máximo. Lo cual es algo que he venido advirtiendo desde hace meses, y sobre todo desde que se presentó la GeForce RTX 3080. Voy a tomar de ejemplo el análisis de TechPowerUp de la RTX 3080 en un Ryzen 9 3900XT y los Core i9-9900K/10900K.

Voy a coger un caso extremo de los que han analizado como son los resultados en Far Cry 5. Siendo cada vez más habitual jugar a FHD/QHD y 144 Hz, a esa tasa de fotogramas y resoluciones el Ryzen 9 3900XT se queda un 20 % por detrás de los 9900K y 10900K. De hecho, se nota que un más potente 10900K se queda ligeramente por debajo del 9900K subido a 5 GHz. Esto es un claro indicativo de que los procesadores para jugar más potentes no son capaces de estar a la altura de la tarjeta gráfica a esas resoluciones. Sin embargo, a 4K la historia es más normal y el 3900X queda solo ligeramente por debajo.

Y esto me lleva a lo que comenté hace unos días. Algunos podrían suponer que se necesitan procesadores más potentes, pero mi opinión es que se necesitan mejores programadores de videojuegos. Si se toma de ejemplo un juego en la situación totalmente distinta, Control, en el que el procesador no limita (tanto) a la tarjeta gráfica, se puede ver que el 3900 XT se queda ligeramente por debajo a FHD, pero a 4K no hay diferencia —e incluso queda ligeramente por encima, pero siendo una diferencia menor del 2-3 % puede quedar en el mero margen de error estadístico—.

En Control se ve que el rendimiento de la RTX 3080 se queda un 72 % por encima del rendimiento de la RTX 2080 a una resolución. Es solamente en estos juegos en los que el procesador no limita a la tarjeta gráfica de los que se puede extrapolar si la afirmación de «doble de rendimiento que la RTX 2080» es verdad. Si se mira el resultado de Devil May Cry 5, se queda en torno a un 67 % más rendimiento. En Strange Brigade es un 62 % más potente, pero me da que en este limita a todos los procesadores por igual porque alcanza los 294 f/s y es una tasa excesivamente alta.

Si se mira el rendimiento a 4K, resolución en la que el procesador no limita en la mayoría de los casos, la cosa mejora un poco más. un 77 % más en Jedi: Fallen Order, un 75 % en Strange Brigade, un 70 % en The Witcher 3, un 82 % en Control, y puesto que es un juego que no depende tanto del procesador lo tomaría como un valor de referencia.

Puede que Nvidia haya exagerado al asegurar que la RTX 3080 es el doble de potente que la RTX 2080, pero tampoco mucho. Incluso si se consigue solo un 70 % de mejora de rendimiento intergeneracional, al haber mantenido el mismo precio de referencia de 699 dólares lo doy por bueno. Pero además me alegro por ello, porque esto significa que AMD tiene margen de reacción y de que la RX 6900 XT alcance en potencia a la RTX 3080.

Porque, con este escenario de solo un 70 % más de mejora, ahora sí que la 6900 XT podría estar a la altura (limitada) de la RTX 3080. El único problema es que el DLSS es tan jugoso en juegos que es motivo más que suficiente para comprar una RTX 3080 en lugar de esperar a la 6900 XT. El trazado de rayos, por lo poco usado, no lo meto en la ecuación.

DLSS es importante no ya solo por el empujón de rendimiento a altas tasas de refresco, sino que en el juego 4K y 60 Hz —como juego yo— hace que la tarjeta gráfica consuma bastante menos. Estaba jugando estos días a Death Stranding —me habría gustado más videojuego en la película que ha hecho Kojima—, y el DLSS hace que la tarjeta gráfica, jugando a esos 4K en monitor de 60 Hz en una RTX 2080 Ti con un 10900K, pase de estar funcionando del 100 % a solo el 70 %, con un consiguiente ahorro de 30 % de consumo (75 W menos), lo que implica menos calor y menos ruido. Para mí, que soy de los que prefieren equipos silenciosos, el DLSS es un gran aliado.

No voy a darle muchas más vueltas al artículo, aunque quiero cerrarlo incidiendo en dos cosas: que esto son buenas noticias para AMD, y que los programadores tienen que mejorar su forma de programar los juegos. No es normal que un 10900K limite claramente a la RTX 3080 en la mayoría de juegos.