Algún rumorólogo hay que ha asegurado no hace mucho que NVIDIA no lanzaría las RTX 40 hasta 2023. Estupideces, dicho simple y llanamente. Ante las burradas que han dicho de las características de las RTX 40, ahora otros rumorólogos van reculando poco a poco en las características que tendrían, y el cambio realizado a la RTX 4070 por @kopite7kimi tiene bastante más sentido. Cuestión aparte es si su suposición es correcta o no. Ahora ha supuesto cambios a la RTX 4080, rebajándola el número de núcleos CUDA.

Hay que tener en cuenta que todas estas tonterías que están soltando son suposiciones suyas y que no creo que se basen en información real. Este y otros las van modificando a medida que les dicen que están soltando gilipolleces. Y que conste que me hago eco de ello simplemente para recalcar las estupideces que dicen, ya que todas las webs sin excepción sueltan estas tonterías sin analizarlas, y sin ni siquiera valorarlas. Para eso ya estoy yo. La nueva RTX 4080 inventada por @kopite7kimi rebaja lo que se inventó previamente por un modelo con chip AD103-300-A1, bajando de 10 240 a 9728 CUDA, con 16 GB de GDDR6X a 21 Gb/s.

Esto hace que baje a los 676 GB/s el ancho de banda de memoria, muy por debajo de los 760 GB/s de la RTX 3080. Ahora decidme cómo, si las arquitecturas de NVIDIA siempre han estado fuertemente limitadas por el ancho de banda, me voy a creer lo que está diciendo. Nadie hace referencia a cambios mayores en el plano de la memoria de las RTX 40, y como mucho alguno se aventura a decir que habrá más caché, lo cual realmente no solucionaría el tema del ancho de banda en aplicaciones en las que cambia constantemente la información —como los juegos—.

Sea como sea, ahora viene la burrada del consumo. Se inventa 420 vatios como el consumo de la RTX 4080. O sea, un 26 % más de CUDA lleva a un aumento del 40 % del consumo cuando siempre en cualquier chip cuantos más núcleos más bajas son las frecuencias de funcionamiento. O sea, presupone indirectamente que la RTX 4080 va a tener mayores frecuencias que la RTX 4070. La RTX 3080 tiene un turbo de 1710 MHz y la RTX 3070 de 1755 MHz. Es un tema de concentración de calor: cuantos más núcleos más calor genera y por tanto hay que bajar la frecuencia para evitar al máximo la limitación térmica. Según lo dicho de su RTX 4070, por coherencia @kopite7kimi tendría que haber dicho que tendría un consumo de 375 W, y me parece mucho para un proceso de 5 nm de TSMC frente al de 8 nm de Samsung.

Vía: Videocardz.