Nvidia sigue manteniendo el control de la gama alta de tarjetas gráficas, si bien la tanda de tarjetas gráficas de arquitectura Turing están dejando un amargo sabor de boca. No lo hace por el hecho de que sean malas, sino porque están infrautilizadas y, por tanto, no parece que compense lo que cuestan. Al menos de momento, hasta que las compañías de videojuegos abracen mayoritariamente el trazado de rayos y las capacidad de inteligencia artificial que tienen los chips gráficos de arquitectura Turing que usan.

Mientras ocurre, la tarjeta gráfica generalista más potente que hay ahora mismo en el mercado es la GeForce RTX 2080 Ti. Como viene siendo habitual, Nvidia presentó y puso a la venta un modelo propio que no usa el diseño de referencia sino un chip subido de fábrica. La teoría detrás de esta decisión es que la mayoría de los compradores de tarjetas gráficas no se molestan en subir la unidad de procesamiento gráfico (GPU), y por tanto resulta adecuado darles de serie ese empujón de potencia adicional.

En el panorama de la gama alta no tiene rival, aunque exista la GeForce RTX Titan que está en realidad más orientada a un público profesional que requiera de sus ventajas en computación. Para jugar no aportará una gran diferencia, pero sí que la diferencia de precio es sustancial —1200 euros de la 2080 Ti frente a los 2700 euros de la Titan RTX—. Por tanto, esta RTX 2080 Ti es la mejor que pueden comprar los entusiastas que tengan el dinero para lo mejor de lo mejor del sector generalista.

Inspección visual de la RTX 2080 Ti FE

rtx_2080_ti.jpg

La edición fundador de la GeForce RTX 2080 Ti cuenta con el nuevo diseño de Nvidia para estos modelos, que usan una carcasa de aluminio plateado con un sistema de refrigeración de doble ventilador. Al ser un modelo abierto, se aleja del tipo turbina de generaciones anteriores, pero aportará un extra de calor al interior de la caja, por lo que dejan de ser ideales para mini-PC —para mi pesar—. El diseño de estos modelos al principio no me gustaba, pero con el tiempo me ha pasado a gustar bastante.

El mayor problema que tiene este diseño de Nvidia es que no se pueden abrir con facilidad. De hecho, no se pueden abrir sin recurrir a un secador para calentar la zona central, quitar la chapa que está fuertemente pegada, y así retirar los tornillos que aseguran todo. Por eso va a ser difícil de limpiar este modelo, y ante cualquier eventualidad habrá que recurrir al servicio de asistencia técnica de Nvidia.

354928 bytes 262595 bytes 297134 bytes 241128 bytes 377923 bytes 338595 bytes 341041 bytes 322424 bytes 376085 bytes 301294 bytes 370941 bytes 313119 bytes 374804 bytes

De hecho, la unidad que recibí de Nvidia —comprada a tocateja en su web— llegó con un ventilador mal montado o con algún problema porque hace un ruido agudo cuando el otro no hace ninguno en su funcionamiento normal. Pedí la devolución del producto, de lo cual pasaron, y ahora tendré que recurrir al servicio técnico para que me lo cambien. Es por estos problemas por lo que prefiero en estos casos buscar las tarjetas gráficas por canales normales y así enfrentarte a lo que un usuario normal se puede encontrar. Obviamente no digo que no se compre la edición fundador de la tienda de Nvidia, sino que ha habido un problema puntual. He comprado ya unas cuantas veces en ella, y es la primera vez que he tenido problemas. Pero dejo constancia del problema.

En la parte posterior dispone de tres DisplayPort 1.4, un HDMI 2.0b y un USB tipo C compatible con DisplayPort y Virtual Link, el estándar de realidad virtual que aporta a las gafas conectadas con señal de vídeo, datos y carga a través de un solo conector. Junto con la tarjeta Nvidia proporciona un adaptador de DisplayPort a DVI, para los que sigan teniendo un monitor con este conector.

Lo básico de la arquitectura Turing

nvidia_tu102.jpg

La arquitectura Turing cuenta con un sistema híbrido de generación de fotogramas en la que mezcla los renderizados por rasterización y trazado de rayos. De esta forma es retrocompatible con todos los juegos aparecidos hasta ahora, y simplemente pone las base de un futuro cambio a generación de gráficos solo mediante trazado de rayos, cuando esta tecnología esté madura y todos los títulos lleguen al mercado siendo compatibles con la generación exclusiva por trazado de rayos. Para eso todavía faltará una década, pero la base está puesta.

Nvidia ha hecho múltiples cambios a nivel del multiprocesador de flujos de datos o SM (simultaneous multithreading), que es la unidad mínima lógica de la que se componen los chips de arquitectura Turing.[1] Cada SM se compone de 16 núcleos de tipo FP32 y otros 16 núcleos de tipo INT32, dos núcleos tensoriales y un gestor de urdimbres, así como una unidad de ejecución. Se incluye como novedad una caché de nivel 0 (L0) de instrucciones, y un registro de 64 KB. Los cuatro bloques comparten los 96 KB de caché de nivel 1 (L1). La caché L2 se duplica hasta llegar a los 6 MB.

Este desdoblamiento en FP32 e INT32 aumenta, según la compañía, notablemente su rendimiento. Nvidia habla de un rendimiento mejorado de hasta el 50 % en diversos juegos gracias a ello, como por ejemplo Battlefield 1, aunque en otros sea inferior, como un 17 % aproximadamente en The Witcher 3.

Ampliando la panorámica del chip TU102 usado en la GeForce RTX 2080 Ti, este chip se compone de seis clústeres de procesamiento gráfico (GPC), treinaiséis clústeres de procesamiento de texturas (TPC) y setentaidós SM. Cada GPC incluye un motor de rasterizado y seis TPC, y cada TPC incluye dos SM, cada uno con 64 núcleos CUDA, ocho núcleos tensoriales, un núcleo de trazado de rayos, un archivo de registro de 256 KB, cuatro unidades de textura y 96 KB de caché de nivel 1 compartida pero configurable por el programador a las necesidades de la tarea que se tenga a mano.

Tarjetas gráficas GeForce
GeForce RTX 2080 Ti Founders Edition GeForce RTX 2080 Ti GeForce RTX 2080 GeForce GTX 1080 Ti
Compañía Nvidia Nvidia Nvidia Nvidia
GPU TU102 TU102 TU104 GP102
Variante GPU TU102-300A TU102-300 TU104-400-A1 GP102-350-A1
Multiproc. de flujos de datos 4352 4352 2944 3584
Frec. base 1350 MHz 1350 MHz 1515 MHz 1480 MHz
Frec. turbo 1635 MHz 1545 MHz 1710 MHz 1582 MHz
Uds. renderizado 88 88 64 88
Uds. textura 272 272 184 224
Tasa de texturas 444.72 GTexel/s 420.24 GTexel/s 314.64 GTexel/s 354.37 GTexel/s
Tasa de píxeles 143.88 GPixel/s 135.96 GPixel/s 109.44 GPixel/s 139.22 GPixel/s
Memoria 11 GB GDDR6 11 GB GDDR6 8 GB GDDR6 11 GB GDDR5X
Frec. memoria 14 GHz 14 GHz 14 GHz 11 GHz
Ifaz. memoria 352 bits 352 bits 256 bits 352 bits
Ancho de banda de memoria 616.00 GB/s 616.00 GB/s 448.00 GB/s 484.00 GB/s
Consumo 280 W 250 W 215 W 250 W
Ranuras PCIe 2 2 2
Con. PCIe 2x 8 pines 2x 8 pines 1x 6 pines, 1x 8 pines 1x 8 pines + 1x 6 pines
Potencia de cómputo 14.23 TFLOPS 13.45 TFLOPS 10.07 TFLOPS 11.34 TFLOPS
PVPR 1199 $ 999 $ 699 $ 699 $

Por tanto, el chip TU102 incluye 4608 núcleos CUDA, 72 núcleos de trazado de rayos, 576 núcleos tensoriales, 288 unidades de textura y doce controladores de memoria de 32 bits, para un total máximo posible de 384 bits, cada uno de los cuales está enlazado con ocho unidades de renderizado (ROP) para un total de noventaiséis en el chip TU102. Por último, cada chip TU102 dispone de dos enlaces NVLink de ocho canales lo que permite una comunicación bidireccional de 25 GB/s cada uno, o de 100 GB/s agregado.

La segunda generación de núcleos tensoriales añade modos de ejecución en INT4 e INT8 para cargas de trabajo que tengan que ver con las inferencias, que es detectar objetos o patrones en imágenes y que es fundamental en la inteligencia artificial. Es por tanto la base de lo que conforma el supermuestro por inteligencia artificial (DLSS, deep learning super sampling) con el que Nvidia promete llevar el suavizado de bordes fuera de los núcleos CUDA para mejorar su rendimiento. Pero, además, es una nueva técnica de rasterizado gráfico con el que mejorar la generación de gráficos respecto al método de rasterizado usado hasta ahora.

Cada núcleo tensorial de los 576 que tiene el chip TU102 tiene potencia para ejecutar 64 operaciones de multiplicación-suma por ciclo de reloj utilizando entradas FP16. Aprovechando las nuevas capacidades de ejecución de enteros, puede ejecutar 256 operaciones de enteros por ciclo de reloj, o 2048 por SM.

En cuanto a la memoria, la GPU puede trabajar únicamente con memoria GDDR6, lo cual le dota de un mayor ancho de banda respecto a la GDDR5X usada hasta ahora. Han incluido mejoras para que funcionen las interconexiones más rápidamente, sean más energéticamente eficientes y se reduzca el ruido en la alimentación. Partiendo de 14 Gb/s, es un 20 % más efeciente que la memoria GDDR5X de la arquitectura Pascal.

También hay mejoras en la compresión de memoria. Es una técnica utilizada para reducir el consumo de ancho de banda en el traslado de información en la tarjeta gráfica, y ahora se usa una compresión sin pérdida que mejora hasta un 50 % el ancho de banda efectivo de la tarjeta gráfica respecto al ancho de banda físico.

Características adicionales de Turing

nvidia_dlss_1.png

En cuanto al motor de vídeo y pantalla, Turing es compatible con DisplayPort 1.4a, con un ancho de banda de 8.1 Gb/s, el mismo que DP1.4, si bien se pasa de ser compatible con vídeo a 5K y 60 Hz a serlo con 8K y 60 Hz. Nvidia despeja cualquier duda que pudiera existir sobre el conector USB tipo C de las GeForce RTX al indicar que son compatible con DisplayPort 1.4a y por tanto se puede usar ese USB tipo C para conectarlo a un monitor con otro USB tipo C de vídeo.

No tiene problemas a la hora de reproducir contenido de alto rango dinámico (HDR), y añade la fórmula del mapa de tonos de la recomendación BT.2100 de la ITU-R para evitar cambios de color en distintas pantallas HDR. Incluye también una unidad codificadora mejorada compatible con HEVC a 8K y 30 FPS, ahorrando un 25 % de ancho de banda y hasta un 15 % en H.264. También es compatible con HEVC YUV444 de 10 y 12 bits a 30 FPS, H.264 a 8K y V9 a 10 y 12 bits con HDR.

captura_de_pantalla_2018-09-14_a_las_16.15.22.jpg

El conector USB tipo C es sobre todo para conectar dispositivos que hagan uso del estándar de realidad virtual VirtualLink en el que se están centrando todas las empresas del sector. A través de un solo cable USB tipo C se retransmite vídeo con cuatro canales DisplayPort, datos, sonido y se puede suministrar energía a las gafas de realidad virtual conectadas.

Y, por supuesto, no falta la referencia a NVLink, indicando el aumento sustancial de ancho de banda de comunicación entre dos tarjetas gráficas iguales. Si bien dos RTX 2080 Ti tendrán una comunicación agregada de 100 GB/s, el chip TU104 de la RTX 2080 solo dispone de un canal NVLink para una comunicación agregada de 50 GB/s. Aun así, es sustancialmente superior al ancho de banda que tenía Pascal con SLI HB, y muy superior a la que tiene SLI.

captura_de_pantalla_2018-09-14_a_las_16.19.33.jpg

Entrando en el terreno del trazado de rayos, hay un núcleo específico para la generación de este tipo de información en cada SM. Para crear los fotogramas mediante trazado de rayos, los sombreadores y los núcleos tensoriales funcionan en tándem para generar una versión preliminar de los gráficos —se generan triángulos que componen objetos—, pasarlos a los núcleos RT para evaluar intersecciones de los rayos de luz con cada píxel del fotograma, y en función de ello generar los cambios en el sombreado o color de cada píxel a nivel individual.[2]

Al hacer esto por hardware en vez de por software como se haría en la arquitectura Pascal y previas, se pasa de procesar en una GTX 1080 Ti del orden de los 1.1 gigarrayos por segundo a generar más de 10 GR/s en la RTX 2080 Ti.

captura_de_pantalla_2018-09-14_a_las_16.31.01.png

La generación de un fotograma hace funcionar en conjunto todos los elementos de cada SM, si bien la mayor parte del peso se la lleva el sombreado usando los núcleos FP32, una parte la intersección usando los núcleos de trazado de rayos, y otra el procesamiento de redes neuronales para el DLSS. Un menor peso de las operaciones se lo llevan los núcleos de INT32.

captura_de_pantalla_2018-09-14_a_las_16.38.31.png

Otra característica importante de la arquitectura Turing es el sombreado de tasa variable (VRS), que permite al desarrollador establecer máscaras de zonas a las que aplicar un sombreado —o detección de niveles de iluminación— más liviano en cuanto a cómputo. Se hace permitiendo que se comprueben un conjunto más amplio de píxeles por operación de sombreado de píxel en lugar de ser aplicado a cada píxel de manera independiente, lo que se gana en rapidez de procesado pero se pierde en fidelidad visual.[3] Puede ser una buena idea cuando se sombrean píxeles en el interior de un mismo objeto, pero no es tan ideal en los bordes de los mismos o cuando se superponen objetos.

geforce-rtx-variable-rate-shading-850px.png

Está acompañado de otras subtécnicas nuevas de sombreado que dependen de esta VRS, como el sombreado adaptado al movimiento (MAS), sombreado adaptado al contenido (CAS), y el renderizado fóveo. La idea detrás de cada uno es ir a algo más específico, como escenarios con mucho movimiento —juegos de carreras—, regiones con bastante complejidad pero que por distancia pueden ejecutarse con menor nivel de calidad —escenarios de juegos de acción o FPS—, y en realidad virtual en el que solo hay que mantener la máxima fidelidad a donde abarca la fóvea o zona de máxima agudeza ocular de la retina.

cas-divs.png

Por último se encuentra el sombreado en malla (mesh shading), en el que se establecen diferentes niveles de precisión visual para los objetos en pantalla, pudiendo renderizarse cada objeto con una calidad distinta en función de la distancia al foco del plano. También acelera el determinar si los triángulos que componen un polígono son visibles o no, evitando procesarlos bastante antes.

Metodología de análisis de rendimiento gráfico

Las pruebas de rendimiento las realizo seleccionando los preajustes ultra siempre que es posible y si dan la opción, aunque en Ashes of the Singularity los pongo en altos para forzar una tasa de fotogramas mayor. Sobre el suavizado, no lo pongo más allá de FXAA para poder compararlo bien con la resolución QHD y 4K, en la que esta última en un monitor estándar de 27 pulgadas sirve de poco o nada poner el suavizado de bordes. También el poner un suavizado de mayor o menor calidad dependerá del tamaño del monitor y la distancia de uso, y puede haber diferencias a la hora de aplicar uno u otro en función de la arquitectura de la tarjeta gráfica.

También desactivo las características específicas de tarjetas de cada marca, como la oclusión ambiental HBAO+ de Nvidia o el PureHair de AMD, por el posible impacto negativo que tengan en las tarjetas de la marca contraria. Las pruebas se han realizado con los controladores GeForce 417.22 instalados.

La toma de valores se coge de los archivos de tiempo de fotograma que generan los juegos, o mediante OCAT, una aplicación de AMD que integra la biblioteca PresentMon desarrollada por un destacado empleado de Intel. Esta biblioteca se engancha directamente a la API gráfica que se esté usando —DX11, DX12 o Vulkan, entre otras—, dando medidas muy precisas de los tiempos de fotograma. Analizando los datos del archivo generado mediante un script se puede obtener la tasa de fotogramas, y también estudiar sus resultados en distintas gráficas pasándolos a una hoja de cálculo.

Los valores se toman al menos dos veces por juego, y se cierran todas las aplicaciones y procesos no imprescindibles mientras se ejecutan para asegurar que no hay nada consumiendo tiempo de CPU en segundo plano. También se desactivan las interfaces de Steam, UPlay y Origin para evitar conflictos. Además de mostrar la tasa media de fotogramas, incluyo el percentil 99, que es el mínimo de FPS por encima del cual se pasa el 99 % del tiempo el juego. Generalmente, si baja de 30 FPS el percentil 99 se puede considerar como que la experiencia de juego no será totalmente fluida.

Equipo de prueba

Para las pruebas he escogido varios modelos de procesadores de cuatro y seis núcleos físicos para comprobar si el procesador llega a limitar a las tarjetas gráficas, y cuánta es esta limitación. Los equipos usados incluyen:

  • Ryzen 5 2600X, placa base B350, 16 GB de memoria a 3200 MHz.
  • Core i5-8400, placa base B360, 16 GB de memoria a 2667 MHz.
  • Core i7-8700K, placa base Z370, 16 GB de memoria a 3200 MHz.

Shadow of the Tomb Raider

shadow_of_the_tomb_raider.jpg

Comparativa por procesador

Shadow of the Tomb Raider, DX11
Core i7-8700K
103,7
Core i5-8400
89,9
Ryzen 5 2600X
81,2

Comparativa por GPU DX11

Shadow of the Tomb Raider, FHD, DX11
RTX 2080 Ti
103,7
RTX 2080
102,2
GTX 1080 Ti
100,2
RX Vega 64
77,1
Media Percentil 99
Shadow of the Tomb Raider, QHD, DX11
RTX 2080 Ti
96,2
RTX 2080
86,4
GTX 1080 Ti
78,2
RX Vega 64
59,6
Media Percentil 99
Shadow of the Tomb Raider, 4K UHD, DX11
RTX 2080 Ti
67,2
RTX 2080
55,9
GTX 1080 Ti
48,1
Media Percentil 99

Comparativa por GPU DX12

Shadow of the Tomb Raider, FHD, DX12
RTX 2080 Ti
140,7
RTX 2080
130,2
GTX 1080 Ti
116,5
RX Vega 64
98,3
Media Percentil 99
Shadow of the Tomb Raider, QHD, DX12
RTX 2080 Ti
113,1
RTX 2080
94,1
GTX 1080 Ti
81,2
RX Vega 64
66,8
Media Percentil 99
Shadow of the Tomb Raider, 4K UHD, DX12
RTX 2080 Ti
66,4
RTX 2080
53,6
GTX 1080 Ti
45,8
Media Percentil 99

Hitman

Comparativa por procesador

Hitman, DX11
Core i7-8700K
122,1
Core i5-8400
107,8
Ryzen 5 2600X
96,7

Comparativa por GPU DX11

Hitman, FHD, DX11
GTX 1080 Ti
123,4
RTX 2080 Ti
122,1
RTX 2080
121,3
RX Vega 64
117,5
GTX 1080
90,5
GTX 1070 Ti
90,3
Media Percentil 99
Hitman, QHD, DX11
RTX 2080 Ti
121,1
RTX 2080
115,5
GTX 1080 Ti
108,5
RX Vega 64
97,5
GTX 1080
88,7
GTX 1070 Ti
87,6
Media Percentil 99
Hitman, 4K UHD, DX11
RTX 2080 Ti
97,3
RTX 2080
80,8
GTX 1080 Ti
68,7
GTX 1080
61,7
RX Vega 64
58
GTX 1070 Ti
55,8
Media Percentil 99

Comparativa por GPU DX12

Hitman, FHD, DX12
RTX 2080 Ti
146,4
RTX 2080
144,4
GTX 1080 Ti
141,9
RX Vega 64
131,7
GTX 1070 Ti
91,2
GTX 1080
90,9
Media Percentil 99
Hitman, QHD, DX12
RTX 2080 Ti
142,4
RTX 2080
126
GTX 1080 Ti
115,9
RX Vega 64
103,1
GTX 1080
89,4
GTX 1070 Ti
86,9
Media Percentil 99
Hitman, 4K UHD, DX12
RTX 2080 Ti
98,7
RTX 2080
78,2
GTX 1080 Ti
70
RX Vega 64
59,3
GTX 1080
57,5
GTX 1070 Ti
53,9
Media Percentil 99

Total War: Warhammer

Comparativa por procesador

Total War: Warhammer, DX11
Core i7-8700K
145,3
Core i5-8400
132,1
Ryzen 5 2600X
124,6

Comparativa por GPU DX11

Total War: Warhammer, FHD, DX11
RTX 2080 Ti
145,3
RTX 2080
143,6
GTX 1080 Ti
137,4
GTX 1080
118,5
GTX 1070 Ti
110,2
RX Vega 64
103,9
Media Percentil 99
Total War: Warhammer, QHD, DX11
RTX 2080 Ti
123,9
GTX 1080 Ti
108,7
RTX 2080
107,4
GTX 1080
84,2
GTX 1070 Ti
77,8
RX Vega 64
76,5
Media Percentil 99
Total War: Warhammer, 4K UHD, DX11
RTX 2080 Ti
76
GTX 1080 Ti
61,3
RTX 2080
60,7
GTX 1080
47
RX Vega 64
44,1
GTX 1070 Ti
42,9
Media Percentil 99

Comparativa por GPU DX12

Total War: Warhammer, FHD, DX12
RTX 2080
114
RTX 2080 Ti
112,3
GTX 1080 Ti
110,8
GTX 1080
107,5
GTX 1070 Ti
105
RX Vega 64
104,6
Media Percentil 99
Total War: Warhammer, QHD, DX12
RTX 2080 Ti
105,7
RTX 2080
97,6
GTX 1080 Ti
96,9
GTX 1080
80,7
RX Vega 64
79,2
GTX 1070 Ti
76,2
Media Percentil 99
Total War: Warhammer, 4K UHD, DX12
RTX 2080 Ti
74,3
GTX 1080 Ti
58,7
RTX 2080
57,7
GTX 1080
44,9
RX Vega 64
44,9
GTX 1070 Ti
41,8
Media Percentil 99

Deus Ex: Mankind Divided

Comparativa por procesador

Deus Ex: Mankind Divided, DX11
Core i7-8700K
131,6
Core i5-8400
127,3
Ryzen 5 2600X
116,4

Comparativa por GPU DX11

Deus Ex: Mankind Divided, FHD, DX11
RTX 2080 Ti
131,6
RTX 2080
107,6
GTX 1080 Ti
96,8
RX Vega 64
78,7
GTX 1080
76,8
GTX 1070 Ti
70,7
Media Percentil 99
Deus Ex: Mankind Divided, QHD, DX11
RTX 2080 Ti
93,6
RTX 2080
74,7
GTX 1080 Ti
65,8
RX Vega 64
55,1
GTX 1080
52,2
GTX 1070 Ti
48,1
Media Percentil 99
Deus Ex: Mankind Divided, 4K UHD, DX11
RTX 2080 Ti
52,4
RTX 2080
40,7
GTX 1080 Ti
36,2
RX Vega 64
29,4
GTX 1080
27,8
GTX 1070 Ti
25,6
Media Percentil 99

Comparativa por GPU DX12

Deus Ex: Mankind Divided, FHD, DX12
RTX 2080 Ti
113,3
RTX 2080
99
GTX 1080 Ti
90,6
RX Vega 64
82,9
GTX 1080
75,8
GTX 1070 Ti
68,9
Media Percentil 99
Deus Ex: Mankind Divided, QHD, DX12
RTX 2080 Ti
83,6
RTX 2080
68,8
GTX 1080 Ti
62,6
RX Vega 64
56,7
GTX 1080
51,4
GTX 1070 Ti
46,1
Media Percentil 99
Deus Ex: Mankind Divided, 4K UHD, DX12
RTX 2080 Ti
46,5
RTX 2080
37,7
GTX 1080 Ti
36
RX Vega 64
29,9
GTX 1080
27
GTX 1070 Ti
24,8
Media Percentil 99

The Division

Comparativa por procesador

The Division, DX11
Core i5-8400
168,5
Core i7-8700K
165,2
Ryzen 5 2600X
155,4

Comparativa por GPU DX11

The Division, FHD, DX11
RTX 2080 Ti
165,2
RTX 2080
135,1
GTX 1080 Ti
125,5
RX Vega 64
101,2
GTX 1080
100,8
GTX 1070 Ti
96,1
Media Percentil 99
The Division, QHD, DX11
RTX 2080 Ti
126
RTX 2080
100,5
GTX 1080 Ti
92,4
RX Vega 64
74,1
GTX 1080
72,1
GTX 1070 Ti
68,6
Media Percentil 99
The Division, 4K UHD, DX11
RTX 2080 Ti
75,9
RTX 2080
57,8
GTX 1080 Ti
51
RX Vega 64
42,5
GTX 1080
39,9
GTX 1070 Ti
36,3
Media Percentil 99

Comparativa por GPU DX12

The Division, FHD, DX12
RTX 2080 Ti
149,2
GTX 1080 Ti
131,7
RTX 2080
127,5
RX Vega 64
110,6
GTX 1080
102,5
GTX 1070 Ti
95,6
Media Percentil 99
The Division, QHD, DX12
RTX 2080 Ti
110,9
RTX 2080
93,4
GTX 1080 Ti
90,1
RX Vega 64
77,2
GTX 1080
72,4
GTX 1070 Ti
66,8
Media Percentil 99
The Division, 4K UHD, DX12
RTX 2080 Ti
66,8
RTX 2080
52,3
GTX 1080 Ti
50,4
RX Vega 64
44,2
GTX 1080
37,2
GTX 1070 Ti
36,3
Media Percentil 99

Gears of War 4

Comparativa por procesador

Gears of War 4, DX11
Core i7-8700K
160
Core i5-8400
155,3
Ryzen 5 2600X
127,7

Comparativa por GPU

Gears of War 4, FHD, DX12
RTX 2080
166,2
RTX 2080 Ti
160
GTX 1080 Ti
154,5
GTX 1080
140,3
GTX 1070 Ti
129,4
RX Vega 64
113,4
Media Percentil 99
Gears of War 4, QHD, DX12
RTX 2080 Ti
135,2
RTX 2080
112
GTX 1080 Ti
111,3
GTX 1080
90,2
GTX 1070 Ti
83,5
RX Vega 64
78,6
Media Percentil 99
Gears of War 4, 4K UHD, DX12
RTX 2080 Ti
76,7
RTX 2080
58,1
GTX 1080 Ti
58
GTX 1080
46
GTX 1070 Ti
42,5
RX Vega 64
42
Media Percentil 99

Forza Horizon 4

forza_horizon_4.jpg

Comparativa por procesador

Forza Horizon 4, DX11
Core i5-8400
136,6
Core i7-8700K
136,2
Ryzen 5 2600X
129,1

Comparativa por GPU

Forza Horizon 4, FHD, DX12
RTX 2080
140,3
RTX 2080 Ti
136,2
RX Vega 64
123,2
GTX 1080 Ti
112,6
GTX 1080
102,1
Media Percentil 99
Forza Horizon 4, QHD, DX12
RTX 2080 Ti
117,6
RTX 2080
117
RX Vega 64
99
GTX 1080 Ti
93,7
GTX 1080
83,5
Media Percentil 99
Forza Horizon 4, 4K UHD, DX12
RTX 2080 Ti
90,3
RTX 2080
82,5
GTX 1080 Ti
67
RX Vega 64
66,2
GTX 1080
58,1
Media Percentil 99

The Witcher 3

Comparativa por procesador

The Witcher 3, DX11
Core i5-8400
185,2
Core i7-8700K
184,9
Ryzen 5 2600X
172,8

Comparativa por GPU

The Witcher 3, FHD, DX11
RTX 2080 Ti
184,9
RTX 2080
152,3
GTX 1080 Ti
142,4
GTX 1080
102
RX Vega 64
94,7
GTX 1070 Ti
93
Media Percentil 99
The Witcher 3, QHD, DX11
RTX 2080 Ti
142,5
RTX 2080
115,4
GTX 1080 Ti
104,7
GTX 1080
74,3
RX Vega 64
71,2
GTX 1070 Ti
68,8
Media Percentil 99
The Witcher 3, 4K UHD, DX11
RTX 2080 Ti
87,2
RTX 2080
68,8
GTX 1080 Ti
62,4
GTX 1080
42,9
RX Vega 64
41,7
GTX 1070 Ti
39,5
Media Percentil 99

For Honor

Comparativa por procesador

For Honor, DX11
Core i7-8700K
253,8
Core i5-8400
240
Ryzen 5 2600X
230,7

Comparativa por GPU

For Honor, FHD, DX11
RTX 2080 Ti
253,8
GTX 1080 Ti
210,8
RTX 2080
208,4
GTX 1080
159,8
RX Vega 64
155,1
GTX 1070 Ti
151
Media Percentil 99
For Honor, QHD, DX11
RTX 2080 Ti
187,4
RTX 2080
151,4
GTX 1080 Ti
141,4
RX Vega 64
107,8
GTX 1080
102,3
GTX 1070 Ti
95,1
Media Percentil 99
For Honor, 4K UHD, DX11
RTX 2080 Ti
100,4
RTX 2080
77,8
GTX 1080 Ti
75,3
RX Vega 64
54,4
GTX 1080
52,7
GTX 1070 Ti
47,1
Media Percentil 99

Ghost Recon Wildlands

Comparativa por procesador

Ghost Recon Wildlands, DX11
Core i7-8700K
92,7
Core i5-8400
85,2
Ryzen 5 2600X
83,8

Comparativa por GPU

Ghost Recon Wildlands, FHD, DX11
RTX 2080 Ti
92,7
RTX 2080
78,8
GTX 1080 Ti
75
GTX 1080
62,4
GTX 1070 Ti
58,6
RX Vega 64
56
Media Percentil 99
Ghost Recon Wildlands, QHD, DX11
RTX 2080 Ti
76,5
RTX 2080
63,8
GTX 1080 Ti
59,3
GTX 1080
48,6
RX Vega 64
46
GTX 1070 Ti
45,2
Media Percentil 99
Ghost Recon Wildlands, 4K UHD, DX11
RTX 2080 Ti
50
RTX 2080
40,8
GTX 1080 Ti
37,5
RX Vega 64
29,7
GTX 1080
29,2
GTX 1070 Ti
27,2
Media Percentil 99

Warhammer 40 000: Dawn of War III

Comparativa por procesador

Warhammer 40 000: Dawn of War III, DX11
Core i7-8700K
134,4
Core i5-8400
116,9
Ryzen 5 2600X
107,8

Comparativa por GPU

Warhammer 40 000: Dawn of War III, FHD, DX11
GTX 1080
134,8
GTX 1080 Ti
134,4
RTX 2080 Ti
134,4
RTX 2080
134,2
GTX 1070 Ti
128,1
RX Vega 64
113,3
Media Percentil 99
Warhammer 40 000: Dawn of War III, QHD, DX11
RTX 2080 Ti
128,4
RTX 2080
113,6
GTX 1080 Ti
111,3
GTX 1080
91,6
RX Vega 64
89
GTX 1070 Ti
86,6
Media Percentil 99
Warhammer 40 000: Dawn of War III, 4K UHD, DX11
RTX 2080 Ti
79,7
RTX 2080
64,2
GTX 1080 Ti
61,8
RX Vega 64
51,9
GTX 1080
48,9
GTX 1070 Ti
45,2
Media Percentil 99

Assassin's Creed Origins

assassin__039_s_creed__2017_-3852668.jpg

Comparativa por procesador

Assassin's Creed Origins, DX11
Core i7-8700K
98,5
Ryzen 5 2600X
83,3
Core i5-8400
81,3

Comparativa por GPU

Assassin's Creed Origins, FHD, DX11
RTX 2080 Ti
98,5
RTX 2080
97,6
GTX 1080 Ti
93,1
RX Vega 64
66,8
Media Percentil 99
Assassin's Creed Origins, QHD, DX11
RTX 2080 Ti
91,6
RTX 2080
82,7
GTX 1080 Ti
76,7
RX Vega 64
56,8
Media Percentil 99
Assassin's Creed Origins, 4K UHD, DX11
RTX 2080 Ti
64
RTX 2080
53
GTX 1080 Ti
47
RX Vega 64
35,9
Media Percentil 99

Far Cry 5

image.jpeg

Comparativa por procesador

Far Cry 5, DX11
Core i7-8700K
131,4
Core i5-8400
118,5
Ryzen 5 2600X
107,6

Comparativa por GPU

Far Cry 5, FHD, DX11
RTX 2080 Ti
131,4
RTX 2080
131,1
GTX 1080 Ti
125,5
GTX 1080
114,1
RX Vega 64
112
Media Percentil 99
Far Cry 5, QHD, DX11
RTX 2080 Ti
125,2
RTX 2080
110,2
GTX 1080 Ti
99,9
RX Vega 64
84,3
GTX 1080
82,1
Media Percentil 99
Far Cry 5, 4K UHD, DX11
RTX 2080 Ti
77,1
RTX 2080
60,8
GTX 1080 Ti
53,3
RX Vega 64
45,1
GTX 1080
42
Media Percentil 99

Battlefield V con DXR

11636_battlefield_v_sales_9f6e99686f845558709905a433492072.jpg

El único juego que de momento ha implementado DirectX Raytracing (DXR) es Battlefield V. Por ello, no solo se puede comparar el rendimiento consigo mismo, y no es mucho. Esta biblioteca gráfica para trazado de rayos es una extensión para DirectX 12. Para esta prueba he tomado de referencia lo que recomienda Nvidia para cada una en cuanto a resolución y calidad de DXR para jugar a los 60 FPS, ya que se trata de un juego de disparos en línea, y por tanto se requiere de la máxima fluidez de juego.

Las mejoras que introduce el trazado de rayos son meramente visuales, y en algunas situaciones se pueden notar bastante. Por ejemplo, en efectos de agua o superficies translúcidas, pero también sobre todo en efectos de superficies mojadas. En el renderizado por rasterización se añaden reflejos o bordes iluminados a zonas que no deberían tenerlas —por ejemplo la parte posterior de unas botas cuando la luz está de frente—, y eso con el trazado de rayos se elimina al hacer correctamente la iluminación.

Pero en última instancia, en un juego de acción rápida es más difícil que alguien se vaya a parar a decir «¡oh, qué bonito se ve!» mientras le están disparando. Es algo subjetivo y difícilmente cuantificable, y algunas personas notarán más que otras la mejora de calidad gráfica. Personalmente la he notado, pero si eso significa una gran pérdida de rendimiento, no merece mucho la pena.

Battlefield V, DirectX Raytracing
RTX 2070
FHD, medio
80,2
RTX 2080
QHD, medio
72,9
RTX 2080 Ti
QHD, ultra
59,3
Media Percentil 99

Pero el problema del trazado de rayos en su forma actual, a la espera de mejoras por parte de Nvidia, es que tiene un gran impacto en el rendimiento general de la tarjeta, perdiendo hasta el 50 % del rendimiento por mejorar la calidad visual.

Res.Con DXRSin DXRVariación
RTX 2080 TiQHD59.3 FPS117.3 FPS–49.5 %
RTX 2080QHD72.9 FPS102.4 FPS–28.8 %
RTX 2070FHD80.2 FPS112.9 FPS–28.9 %

Final Fantasy XV con DLSS

final_fantasy_xv.jpg

Final Fantasy XV tiene una prueba de rendimiento independiente del juego y que implementa distintas características de los Gameworks de Nvidia, incluido el supermuestreo por inteligencia artificial (DLSS). Es un tipo de suavizado que se ejecuta en los núcleos tensoriales de la GPU y por tanto descarga de trabajo a los núcleos CUDA.

Esta prueba de rendimiento aporta se puede configurar con los suavizados FXAA, TAA y DLSS. Para las pruebas he puesto todos los parámetros a calidad alta y activado todas las opciones excepto las de Gameworks. La resolución escogida es a 4K porque Nvidia insiste en mostrar la diferencia entre tener TAA y DLSS a 4K, si bien la utilidad de un suavizado más allá del FXAA, el más básico, jugando a 4K en un monitor de 27 pulgadas a 60-80 cm de distancia o más tiende a ser poca, si bien puede mejorar ligeramente la percepción de calidad en algunos juegos y situaciones, y también dependiendo del usuario.

Final Fantasy XV, 4K UHD, en puntos
Con DLSS
8181
Sin suavizado
7084
Con FXAA
6950
Con TAA
6370

El resultado de la prueba se da en una puntuación en lugar de en FPS. Curiosamente, al activar DLSS se obtiene más rendimiento que sin tener ningún suavizado seleccionado. La explicación a esto es que los núcleos tensoriales no solo se dedican a determinar el suavizado de bordes, sino que también intervienen en la creación de píxeles. Por tanto, es una técnica nueva de rasterización y no solo de suavizado o antialiasing, que utiliza unos modelos de redes neuronales previamente entrenadas en las supercomputadoras de Nvidia e integrados en los controladores GeForce para la creación de los gráficos.

La implementación de DLSS en los juegos puede ser la mayor fuente de mejora de rendimiento en las tarjetas gráficas GeForce RTX, porque como se ve en los datos anteriores, este método de renderizado con suavizado incorporado mejora el rendimiento de la prueba en un 15.4 %, y eso sin tener ningún suavizado activo. Frente a tener TAA activo, la mejora es del 28.4 %.

Temperaturas, ruido y overclocking

lateral.jpg

La edición fundador de la GeForce RTX 2080 Ti tiene una orientación bastante distinta a lo que Nvidia venía haciendo con sus modelos de referencia. En esta ocasión, está orientada a dar un poco más de rendimiento a los compradores, aportando mejores temperaturas con un sistema de refrigeración mejorado, lo que supone que es un chip subido de fábrica en lugar de usar las frecuencias de referencia.

Temperaturas y ruido

En el terreno de la temperatura, en carga completa y con el lugar de pruebas a unos 26 ºC, la tarjeta gráfica alcanza los 81 ºC, según el momento, mientras se está jugando. Son valores mejores que los 85-88 ºC a los que llega la GTX 1080 Ti, por lo que eso también le da en principio un mayor potencial de subida, que habrá que ver si lo tiene o no.

En cuanto al ruido, mientras que la GTX 1080 Ti podía llegar a ser una tarjeta gráfica algo ruidosa pero no mucho —enfriar con un diseño tipo turbina una tarjeta de 250 W no es moco de pavo—, alcanzando los 40 dB en carga, esta se queda más en la línea de los 35-38 dB con los ventiladores a unas 2300 RPM, lo que hace que apenas se vaya a escuchar —el equipo de pruebas está hecho para ser silencioso, con fuente pasiva y ventilador de CPU silencioso—. No es una gran mejora, pero ambas tarjetas gráficas tienen un consumo similar, o algo mejor en esta RTX 2080 Ti. En reposo, o con incluso una carga ligera a moderada, esta RTX 2080 Ti Edición Fundador no pasa de los 30 dB, con la GPU situándose en torno a los 42 ºC. El nuevo diseño de la edición fundador de Nvidia está francamente bien pensado y ejecutado.

Overclocking

captura.jpg

En el apartado del potencial de subida de la GPU, hay que tener en cuenta que la RTX 2080 Edición Fundador ya llega con una subida de 90 MHz del turbo —a tener en cuenta con respecto a la GTX 1080 Ti Edición Fundador con la que lo he comparado—, por lo que cualquier mejora adicional hay que tenerla en cuenta respecto a esta subida. La frecuencia turbo del modelo de referencia es de 1545 MHz, y esta edición fundador tiene 1635 MHz.

La subida manual se ha realizado con el programa Precision X1 de EVGA. Primeramente he usado el escaneo de la tarjeta gráfica que se consigue a través de la utilidad Scanner de Nvidia, que se puede usar para las tarjetas gráficas GeForce RTX 20 así como las GTX 10. Se trata de probar de manera automática la capacidad de subida de la tarjeta gráfica, creando unas curvas específicas para la GPU incluida en ella de tensión y frecuencias. Esto ahorra todo el proceso de ensayo y error, y asegura una subida estable.

BaseOC adicionalIncremento
Frec. base135013500 %
Frec. turbo16351761 (+126 MHz)7.7 %
Vel. VRAM14 000 MHz15 000 MHz (+1000 MHz)7.1 %

The Division es un juego poco dependiente de la potencia del procesador, y por tanto no va a haber limitaciones de ningún tipo al probar el overclocking de la RTX 2080 Ti con este juego. La prueba de rendimiento integrada es bastante estable en cuanto a los resultados de una pasada a otra, por lo que me gusta utilizarla para tomar mediciones de la subida de frecuencias realizada. En estas pruebas suelo tener la tarjeta gráfica siempre calentita tras dejarla funcionando durante varias horas para comprobar mejor los límites de la subida, ya que el calor o uso muy prolongado de la tarjeta gráfica al hacer overclocking es la única forma de ver si la subida es estable o no. Por eso el valor normal de rendimiento es distinto del indicado en el análisis bajo el epígrafe The Division.

The Division (DX11, 1080p)FPSMejora (%)

Turbo de referencia (1545 MHz)164.9
Turbo de la edición fundador (1635 MHz)170.13.1 %
Subida adicional (+126 MHz)172.74.7 %
Subida de memoria (+1000 MHz)173.25.0 %
Ambos (CPU y GPU subidas)176.67 %

La subida que se puede conseguir en este juego es de en torno al 3.8 % respecto a la frecuencia turbo de 1635 MHz de la edición fundador, o del orden del 7 % respecto a los 1545 MHz del modelo de referencia de Nvidia. Es una subida bastante modesta en este juego, pero que en otros puede ser algo mayor.

Si se mira el rendimiento a 4K, para eliminar que el procesador pueda ser algún tipo de problema en el rendimiento máximo, se pasa de 74.8 FPS a 81.8 FPS, lo que supone una subida del 9.3 %, que es poco más que es algo más de dos puntos porcentuales sobre el que se consigue con The Division a FHD. Desde la frecuencia de referencia de 1545 MHz de turbo, la subida es desde los 72.0 FPS —un 3.8 % de mejora por esos +90 MHz— para un total del 13.6 %. Estos valores de subida de la GPU y memoria son bastante habituales en las arquitecturas gráficas de Nvidia.

El ruido al hacer esa subida no cambia demasiado en este modelo, más situado en los 40 dB, si bien las temperaturas llegan a unos 84 ºC para la GPU, que es el máximo al que se tiende en este modelo y que se puede modificar hasta un máximo de 88 ºC a través de programas como Afterburner de MSI al subir también el consumo máximo posible de la tarjeta gráfica.

Consumo

El consumo medio del equipo de pruebas jugando es de unos 330 W, con algún pico que pueda llegar a los 350 W. En juegos más sencillos y que hagan uso menos de procesador o la tarjeta gráfica pueden bajar hasta los 250 W de consumo, como he comprobado en World of Warcraft con todo al máximo y sin limitador de FPS, lo cual no deja de resultar curioso. Por tanto, se sitúa en la línea de consumo de la GTX 1080 Ti, que tiene un consumo en este equipo de unos 355 W.

La tarjeta tiene una potencia de minado de Ethereum de unos 50.5 MH/s, con un consumo por defecto de 305 W. Se puede limitar el consumo de la tarjeta gráfica al 60 % manteniendo el nivel de minado, pasando a consumir 196 W. Por otro lado, usando la prueba de carga de GPU Furmark el consumo se va a los 335 W después de 10 minutos de funcionamiento. Cuando se aplica la subida de frecuencias de +1000 MHz de memoria y +126 MHz de GPU, el consumo en Furmark se va en torno a los 400 W.

Consumo en «Furmark» (en vatios)
RTX 2080
295
RTX 2080 Ti
330
RX Vega 64
350
Carga Reposo

Conclusión

luz.jpeg

Lo primero que tengo que decir es que por unas cosas y otras se me ha retrasado la publicación del análisis de la RTX 2080 Ti, a pesar de que la tengo desde que se pusiera a la venta en octubre. Pero más vale tarde que nunca, y eso también tiene la ventaja de que ya hay algo de contenido que usa el trazado de rayos (TR) así como el supermuestreo por inteligencia artificial (DLSS). Son básicamente las dos características insignia de esta serie RTX 2080 Ti, por lo que analizar esta tarjeta gráfica sin analizar esos aspectos es un poco fútil.

El rendimiento de la RTX 2080 Ti se sitúa en torno al 25 o 30 % por encima de la RTX 2080, pero a un 50 % más de precio. Cuanto más avanzada una tarjeta gráfica peor es su relación potencia-precio, pero los que quieran la mejor tarjeta gráfica de consumo podrán comprar una RTX 2080 Ti sabiendo que tienen un rendimiento excelente.

Es capaz de mover a 4K y 60 FPS todos los juegos del mercado, salvo excepciones muy puntuales como Deus Ex: Mankind Divided, por lo que sí se puede ver como una tarjeta gráfica para jugar a 4K. Imprime una gran fluidez a todos los juegos, y si eres de los que tienen un monitor QHD y 144 Hz vas a agradecer su potencia. No hay ningún pero que ponerle en el apartado del rendimiento, si bien los peros se sitúa en torno a sus características insignia.

Puesto que no hay casi nada de contenido que implemente el trazado de rayos y DLSS, a pesar de que prometían que habría mucho poco después de ponerse a la venta las GeForce RTX, sigue siendo difícil valorar dichos apartados de esta tarjeta gráfica. Sin ellos, resulta cara y poco atractiva, viendo una GTX 1080 Ti de segunda mano o incluso simplemente una RTX 2080 —ahora sobre los 800 euros— como opciones mucho mejores de compra, y perfectamente capaces para 4K —retocando un poco los ajustes gráficos según el juego—.

Por eso toca seguir esperando a dos cosas: que el precio de esta serie RTX 20 se aposente en el mercado, y a que llegue más contenido de TR y DLSS. Este último, como se ve en las pruebas de Final Fantasy XV, mejora los fotogramas por segundo al ser un renderizado alternativo al tradicionalmente implementado por Nvidia y que realmente es lo más interesante de las GeForce RTX. La arquitectura Turing tiene otros muchos trucos bajo el capó y que ahora mismo tampoco se están utilizando, por lo que la puesta a la venta de esta serie, y ya tras haber pasado tres meses, sigue estando muy verde. Por lo demás, es indudable que la RTX 2080 Ti es una magnífica tarjeta gráfica realmente potente.

Referencias

  1. Libro blanco de la arquitectura Turing, Nvidia.
  2. Graphics reinvented: ray tracing, AI, and advanced shading deliver a whole new way to experience games, Nvidia.
  3. Turing variable rate shading in VRWorks, Nvidia.