Intel ha apostado por su propia tecnología de escalado temporal como AMD o NVIDIA, aunque DLSS y XeSS son más avanzados al ser en realidad unos supermuestreos basados en una red neuronal, algo bastante más avanzado que el FSR de AMD, aunque el resultado no sea muy distinto. Esa tecnología XeSS de Intel ha mejorado bastante en el último año y lo demuestra en Ratchet y Clank: una dimensión aparte, juego que implementa esta tecnología, FSR y DLSS. Esa versión de XeSS es la 1.2, y ahora está disponible el kit de desarrollo (SDK) para que cualquiera lo implemente en sus proyectos.

En XeSS 1.2 el rendimiento ya es igual que el de FSR o DLSS, que era la pega que tenía la implementación inicial que distribuyó Intel. Como es habitual en estos casos, ha habido optimizaciones de rendimiento, mejoras de estabilidad y correcciones de errores. Es lo estándar en una actualización de versión de cualquier proyecto software.

Pero también se ha implementado escalado dinámico de resolución, que es literalmente eso, ir modificando la resolución de entrada de XeSS dinámicamente en función de lo exigente o no que sea el juego en que se usa. La versión publicada es la 1.2.0.13 mientras que la de Ratchet y Clank es la 1.2.0.10. No se sabe qué diferencias puede haber.

No sé cómo se está usando esto en Ratchet y Clank, o igual ni siquiera se está usando. Probablemente sí, y puede que sea el motivo por el que el rendimiento de XeSS 1.2 sea igual a las últimas versiones de AMD y NVIDIA, aunque eso implicaría que es mismo rendimiento con truquito. Pero como ya de por sí el escalado temporal, con o sin IA, ya es un truco de mejora de rendimiento, tampoco se lo voy a tener demasiado en cuenta.

Lo que sí ha mejorado claramente Intel en la 1.2 es la forma en que se ejecuta la red neuronal con instrucciones DP4a (tarjetas gráficas no Arc) y sobre los núcleos específico (XMX) de las Arc. En función de si se ejecuta con DP4a o XMX se usa una red neuronal más o menos compleja. Como todo en la IA, se basa sobre todo en cálculos de enteros, y aquí específicamente en INT8. De ahí también proviene la mejora de rendimiento, aunque es de imaginar que también habrá seguido entrenando las redes neuronales para conseguir una mejor calidad visual con un menor impacto en el rendimiento.

Vía: Videocardz.