ARM ha estado desarrollando varias tecnologías de escalado de imagen, y ahora le toca el turno a una que utiliza inteligencia artificial. Se trata de Neural Super Sampling (NSS) o supermuestreo neuronal, presentada durante el SIGGRAPH que se está celebrando estos días. La mala noticia es que no llegará a los primeros dispositivos hasta finales de 2026, que en los tiempos que corren de rapidísima evolución de las IAG, es mucho.
El kit de desarrollo estará disponible para el motor Unreal haciendo uso de Vulkan ML con una capa de emulación para Vulkan. Es parte de los avances en renderizado neuronal que se están haciendo en las bibliotecas gráficas, lo cual no es más que aplicar redes neuronales para mejorar la calidad en distintas partes de la tubería gráfica, como por ejemplo aplicar IA para mejorar la calidad de las texturas, ahorrando VRAM.
Para aplicarlo se necesita como es habitual información de los vectores de movimiento de los objetos, y su aplicación no es muy distinta a otros escalados por IA. ARM explica en un artículo como funciona, con los distintos pasos y apartados que aplica para llevar una imagen generada a una resolución a otra mayor. En el siguiente vídeo se ve que hace un buen trabajo, aunque si se pausa en ciertos momentos se puede ver la diferencia de calidad entre aplicar NSS o no.
Pero como es para imágenes en movimiento, de momento parece que lo hace bastante bien. Hay que tener en cuenta que además es para móviles, por ejemplo, con un enfoque en el bajo consumo, y por tanto la resolución de salida será FHD. En el ejemplo parten de 540p, que sería el ajuste 'rendimiento' en DLSS o FSR. A partir de aquí la calidad de la imagen la determinará la potencia de la NPU para entrar en el tiempo de escalado objetivo, que según ARM es de 4 ms. A mayor potencia, más calidad, o puede procesar más fotogramas con misma calidad.
Fuente: ARM, ARM (2). Vía: Videocardz.