Nvidia ha sacado la artillería en la presentación de las GeForce RTX 30, pero era algo que ya se esperaba. La escasa evolución de las GeForce en cuatro años, con apenas un 20 % más de mejora entre las GTX 10 y las RTX 20, daba margen para que Nvidia presentara una alineación de tarjetas gráficas RTX 30 potente. Esperaba algo más en torno del 60-70 % de mejora de rendimiento, pero al final va a ser del 100 %. Tampoco me he quedado tan lejos.

Ahora la gran pregunta es qué pasa con AMD. Pues que presentará la arquitectura RDNA 2 y se quedarán las cosas como estaban. Con algunos peros, por supuesto, pero en general no espero que AMD se quede muy descolgada a pesar de que haya hecho alguna broma con ella y con Intel. En internet las bromas escritas no se cogen igual por la falta de entonación y contexto.

AMD prometió que con RDNA 2 iba a mejorar un 50 % el rendimiento por vatio, lo que significa que reducirá en torno a un 30 % el consumo del chip Navi 20 respecto al Navi 10. Además, hay que tener en cuenta que el Navi 10 tiene apenas 251 mm2 mientras que el chip de Nvidia se situará entre los 700 y 800 mm2. Debido al consumo de la RX 5700 XT, de 225 W, no tiene demasiado margen de maniobra; con RDNA 2 esa gráfica consumiría algo así como 150 W, por lo que veo más factible que multiplique algo así como por 2.2-2.5 el tamaño del chip, dejando una ¿RX 6700 XT? en los 350 W. Sería una tarjeta de unos 25 TFLOPS de rendimiento con una arquitectura mucho más parecida a la de Nvidia, por lo que se podrían equiparar ligeramente mejor. La RTX 3080 tiene 30 TFLOPS.

Lo que tengo claro es que AMD no va a poder coger a Nvidia esta generación, y mucho menos alcanzar el rendimiento de la RTX 3090. Pero algo entre medias de la RTX 3070 y la RTX 3080 sí que podría poner en el mercado. Con suerte, más cerca de la RTX 3080 que de la RTX 3070. La cuestión estaría en el precio que le pusiera AMD a esa tarjeta gráfica, que debería estar en torno a los 500 o 600 dólares como muchísimo, lo cual mete mucha presión a AMD. Además, debería tener una alta disponibilidad para realmente tener un impacto en el mercado y que no se vuelva a quedar en una tarjeta más.

El problema real que veo con AMD es que no está adaptándose suficientemente rápido al trazado de rayos, y vuelvo a insistir en que el primer juego que solo use trazado de rayos para generarse llegará en cuatro o cinco años. El actual renderizado por rasterizado de triángulos tiene los días contados, y el apaño de la arquitectura de las GeForce RTX es un paso intermedio entre el renderizado por rasterizado y el renderizado por trazado de rayos. Así que AMD en realidad se la juega bastante en que su implementación por hardware del trazado de rayos, que son simplemente algunos sombreadores extra dedicados a estas tareas cuando sea necesario, va a ser una buena solución o no.