Las especificaciones de esta tarjeta gráfica no dejan lugar a dudas: ha llegado decidida a hacerse un hueco a codazos en lo más alto del porfolio actual de NVIDIA. De hecho, su lugar natural está por encima de la GeForce RTX 3080 que tan buen sabor de boca nos dejó en el análisis que publicamos el año pasado, y solo por debajo de la aún más ambiciosa GeForce RTX 3090.
En circunstancias normales para hacernos con ella lo único que tendríamos que hacer es ahorrar. Mucho. Los 1200 euros que NVIDIA nos pide por la versión Founders Edition la colocan fuera del alcance de buena parte de los jugadores. Pero no estamos en circunstancias normales. Y, por esta razón, para conseguir no solo esta tarjeta gráfica, sino prácticamente cualquier otra de última hornada, va a ser preciso armarse de paciencia. Y tener suerte.
La crisis de los semiconductores y el apetito voraz de los mineros de criptodivisas han desencadenado una escasez de tarjetas gráficas capaz de frustrar a cualquier usuario que haya decidido comprar una. Y, para rizar el rizo, las pocas unidades que aparecen suelen ser pasto de la especulación, por lo que habitualmente para comprarlas es necesario pagar un precio muy superior al fijado oficialmente por el fabricante.
NVIDIA ha tomado recientemente cartas en el asunto limitando la tasa de hash de las últimas tarjetas gráficas que está produciendo. Su objetivo es hacerlas menos atractivas para los mineros de criptodivisas, y debería funcionar. Cualquier opción que contribuya a normalizar el mercado de estas tarjetas es bienvenida, pero aún tendremos que esperar un poco para comprobar si esta estrategia funciona. Ojalá lo haga porque, como estamos a punto de descubrir, quien pueda permitirse pagar esta tarjeta catapultará el rendimiento gráfico de su PC.
NVIDIA GeForce RTX 3080 Ti: especificaciones técnicas
La manera más eficaz de intuir qué nos propone esta tarjeta gráfica requiere compararla con la GeForce RTX 3080, que es la propuesta del catálogo de NVIDIA con la que tiene más en común. Como cabe esperar, la GPU de la revisión Ti incorpora más núcleos CUDA (10 240 frente a 8704), más núcleos RT de 2ª generación (80 frente a 68), más núcleos Tensor de 3ª generación (320 frente a 272) y también más unidades de cálculo (80 frente a 68).
Esta mayor cantidad de núcleos y unidades de cálculo debería permitir a la nueva GeForce RTX 3080 Ti arrojar un rendimiento más alto que el que nos ofrece la RTX 3080 convencional, especialmente al afrontar al renderizado a 2160p y en las condiciones gráficas más exigentes. Un apunte breve antes de seguir adelante: el proceso fotolitográfico de 8 nm utilizado por Samsung para fabricar el procesador con apellido Ti es el mismo que emplea para producir la GPU GeForce RTX 3080, y también los demás chips de la familia GeForce RTX 30.
La siguiente diferencia entre ambas tarjetas en la que merece la pena que nos detengamos es la memoria VRAM. Ambas soluciones incorporan chips de memoria local de tipo GDDR6X, pero la GeForce RTX 3080 Ti se apoya en 12 GB, y la RTX 3080 incorpora 10 GB. El bus de memoria de la revisión Ti tiene una «anchura» de 384 bits, mientras que la versión convencional incorpora un bus de 320 bits, lo que provoca que la velocidad de transferencia del subsistema de memoria supere en la GeForce RTX 3080 Ti los 900 GB/s.
No obstante, esto no es todo. Como podéis ver en la tabla de especificaciones que publicamos un poco más abajo, las demás cifras de la GeForce RTX 3080 Ti también son más altas que las de la GeForce RTX 3080. La tarjeta que estamos analizando nos propone un rendimiento en operaciones FP32 más alto (34 frente a 29,77 TFLOPS), y también más Tensor FLOPS, más ROP/s y más unidades de mapas de texturas. En definitiva, más de casi todo. Y esto, sobre el papel, debería acarrear que su rendimiento bajo estrés sea sensiblemente más alto que el que nos ofrece la GeForce RTX 3080.
Las tecnologías implementadas por NVIDIA en el procesador gráfico GeForce RTX 3080 Ti son idénticas a las de las GPU de la familia GeForce RTX 30 que hemos analizado hasta ahora, por lo que las secciones de este análisis en las que indagamos en la arquitectura Ampere y en el impacto que tiene la tecnología DLSS 2.0 en la calidad de imagen son las mismas de los artículos que hemos dedicado a las otras tarjetas gráficas. Si ya habéis leído nuestros análisis de estas últimas soluciones y no necesitáis repasar en qué consisten estas innovaciones os sugerimos que paséis estas secciones por alto. Estas son las mejoras más relevantes introducidas por NVIDIA en las tarjetas gráficas de la familia GeForce RTX 30:
- Integran una cantidad de núcleos CUDA sensiblemente mayor. Estos núcleos se responsabilizan de llevar a cabo los cálculos complejos a los que se enfrenta una GPU para resolver, entre otras tareas, la iluminación general, el sombreado, la eliminación de los bordes dentados o la física. Estos algoritmos se benefician de una arquitectura que prioriza el paralelismo masivo, por lo que cada nueva generación de procesadores gráficos de NVIDIA incorpora más núcleos CUDA.
- Incorporan más núcleos RT (Ray Tracing). Estas son las unidades que se encargan expresamente de asumir una gran parte del esfuerzo de cálculo que requiere el renderizado de las imágenes mediante trazado de rayos, liberando de este estrés a otras unidades funcionales de la GPU que no son capaces de llevar a cabo este trabajo de una forma tan eficiente. Son en gran medida responsables de que las tarjetas gráficas de las series GeForce RTX 20 y 30 sean capaces de ofrecernos ray tracing en tiempo real.
- También tienen unos núcleos Tensor más avanzados. Al igual que los núcleos RT, los núcleos Tensor son unidades funcionales de hardware especializadas en resolver operaciones matriciales que admiten una gran paralelización, pero estos últimos han sido diseñados expresamente para ejecutar de forma eficiente las operaciones que requieren los algoritmos de aprendizaje profundo y la computación de alto rendimiento. Los núcleos Tensor ejercen un rol esencial en la tecnología DLSS (Deep Learning Super Sampling) de la que hablaremos a lo largo de todo este análisis.
- Las tarjetas gráficas de la familia GeForce RTX 30 implementan la tecnología Reflex, que persigue reducir la latencia a lo largo de todo el cauce de la señal para minimizar el lapso de tiempo que se extiende desde el momento en el que damos una orden desde nuestro teclado o ratón hasta el instante en el que tiene un efecto en el monitor. Esta innovación reduce sensiblemente la latencia, especialmente cuando se incrementa la resolución. Si queréis conocerla a fondo no os perdáis el artículo en el que la analizamos.
- La nueva tecnología RTX IO permite a la GPU intervenir en la descompresión de los datos almacenados en la unidad de almacenamiento secundario para reducir los tiempos de carga y liberar a la CPU de la mayor parte del estrés impuesto por esta tarea. Los algoritmos de descompresión pueden sacar partido al paralelismo inherente de los procesadores gráficos.
- La aplicación NVIDIA Broadcast recurre a la inteligencia artificial para, según sus creadores, mejorar nuestra experiencia cuando hablamos a través de una videollamada o emitimos contenido en vivo. Sus tres funciones principales son eliminar el ruido en segundo plano, recrear un fondo virtual y actuar sobre el encuadre de forma automática.
- Estas son las primeras tarjetas gráficas de NVIDIA capaces de comunicarse con los demás componentes de nuestros ordenadores a través de un enlace PCI Express 4.0. No obstante, funcionan perfectamente en una placa base con buses PCI Express 3.0. De hecho, aún no está claro el impacto que tendrá el salto a la norma 4.0 desde el punto de vista de los gráficos porque tendremos que averiguar en qué condiciones consigue saturar el subsistema gráfico un enlace PCIe 3.0. A priori la CPU tiene un impacto mucho más profundo en el rendimiento con los juegos, especialmente si buscamos las mayores cadencias de fotogramas posibles.
- El puerto HDMI de las GeForce RTX 30 implementa la norma 2.1. No cabe duda de que esta es una gran noticia porque nos va a permitir sacar más partido a nuestro PC cuando lo conectemos a un televisor de última hornada que también satisfaga esta norma. Bienvenidos sean los gráficos con resolución 4K UHD y una cadencia de imágenes variable de hasta 120 FPS (los paneles de los televisores más ambiciosos trabajan con un refresco nativo de 120 Hz).
En algunas de las innovaciones que acabamos de revisar indagaremos con un poco más de profundidad en la sección del análisis que dedicaremos a la arquitectura Ampere, pero para ir abriendo boca aquí tenéis la tabla que detalla las especificaciones de la GeForce RTX 3080 Ti Founders Edition que hemos analizado a fondo. En la tabla también hemos incluido a modo de referencia las características de las GeForce RTX 3080 y RTX 2080 Ti para poner en contexto qué nos propone esta nueva tarjeta gráfica de NVIDIA.
|
NVIDIA GeForce rtx 3080 ti |
nvidia geforce rtx 3080 |
nvidia geforce rtx 2080 Ti |
---|---|---|---|
arquitectura |
Ampere |
Ampere |
Turing |
transistores |
28 300 millones |
28 000 millones |
18 600 millones |
fotolitografía |
8 nm Samsung (tecnología de integración personalizada para NVIDIA) |
8 nm Samsung (tecnología de integración personalizada para NVIDIA) |
12 nm TSMC |
núcleos cuda |
10 240 |
8704 |
4352 |
núcleos rt |
80 (2ª generación) |
68 (2ª generación) |
68 (1ª generación) |
núcleos tensor |
320 (3ª generación) |
272 (3ª generación) |
544 (2ª generación) |
unidades de cálculo (cu) |
80 |
68 |
68 |
caché de nivel 1 |
128 Kbytes (por SM) |
128 Kbytes (por SM) |
64 Kbytes (por SM) |
caché de nivel 2 |
6 Mbytes |
5 Mbytes |
5,5 Mbytes |
frecuencia de reloj máxima |
1,67 GHz |
1,71 GHz |
1,63 GHz |
memoria dedicada |
12 GB GDDR6X |
10 GB GDDR6X |
11 GB GDDR6 |
bus de memoria |
384 bits |
320 bits |
352 bits |
velocidad de transferencia de la memoria |
912 GB/s |
760 GB/s |
616 GB/s |
shader tflops (fp32) |
34 |
29,77 |
14 |
tensor flops |
273 |
238 |
114 |
operaciones de rasterización |
112 ROP/s |
96 ROP/s |
88 ROP/s |
unidades de mapas de texturas |
320 |
272 |
272 |
tasa de texturas |
532,8 Gtexeles/s |
465 Gtexeles/s |
420,2 Gtexeles/s |
tasa de píxeles |
186,5 Gpíxeles/s |
164 Gpíxeles/s |
136 Gpíxeles/s |
directx 12 ultimate |
Sí |
Sí |
Sí |
interfaz pci express |
PCIe 4.0 |
PCIe 4.0 |
PCIe 3.0 |
revisión hdmi |
2.1 |
2.1 |
2.0b |
revisión displayport |
1.4a |
1.4a |
1.4a |
dlss 2.0 |
Sí |
Sí |
Sí |
ranuras ocupadas |
2 |
2 |
2 |
temperatura máxima de la gpu |
93 ºC |
93 ºC |
89 ºC |
consumo medio |
350 vatios |
320 vatios |
260 vatios |
potencia recomendada para la fuente de alimentación |
750 vatios |
750 vatios |
650 vatios |
conectores de alimentación |
2 x 8 pines |
2 x 8 pines |
2 x 8 pines |
precio |
1199 euros |
719 euros |
1259 euros |
La GeForce RTX 3080 Ti Founders Edition, en detalle
El chasis, el sistema de refrigeración y la conectividad de la GeForce RTX 3080 Ti Founders Edition son idénticos a los de la GeForce RTX 3080 Founders Edition. Como podéis ver en la siguiente fotografía, buena parte de la superficie de la tarjeta gráfica es un disipador que aglutina numerosas láminas finas de aluminio. Su propósito es maximizar la superficie en contacto con el aire para optimizar la transferencia de energía térmica entre un medio sólido, el disipador, y un medio gaseoso, el aire, mediante convección. Y funciona.
El sistema de refrigeración que NVIDIA ha diseñado para sus nuevas tarjetas gráficas es muy diferente al que esta compañía nos propuso en los modelos GeForce RTX 20 Founders Edition. La refrigeración de la GeForce RTX 3080 Ti está diseñada para tomar aire a temperatura ambiental procedente del exterior del PC a través de los dos ventiladores instalados en la parte inferior de la tarjeta gráfica.
Una vez que el aire ha recogido una parte de la energía térmica que le ceden la GPU y los otros componentes de la tarjeta es expulsado hacia el exterior de la caja a través de la tobera alojada junto a los conectores DisplayPort y HDMI, así como a través del mismo ventilador de la caja que expulsa el aire caliente de la CPU.
En la siguiente fotografía de detalle podemos ver con claridad la salida de aire alojada junto a los conectores DisplayPort y HDMI. Esta tarjeta incorpora tres salidas DisplayPort 1.4a ideales para instalaciones multimonitor, y, como he mencionado unos párrafos más arriba, también tiene una salida HDMI que implementa la norma 2.1 y que nos permite enviar la señal de vídeo a un televisor (lo ideal es que también sea compatible con este estándar para poder sacar partido a las prestaciones vinculadas a él).
La siguiente fotografía de detalle muestra el conector de alimentación de 12 pines que se encarga de proporcionar a esta tarjeta gráfica la energía que necesita para responder en los momentos de máxima carga. Junto a la tarjeta NVIDIA entrega un adaptador específico que nos permite enviar a esta GeForce RTX 3080 Ti la alimentación procedente de dos tomas de 8 pines de la fuente de alimentación. Como podéis ver en la fotografía el conector está alojado en uno de los perfiles laterales próximo al centro de la tarjeta y perpendicular a la placa de circuito impreso.
Según NVIDIA esta tarjeta gráfica tiene un consumo medio de 350 vatios, por lo que recomienda instalarla en un PC que tenga una fuente de alimentación con una capacidad de entrega de potencia teórica de al menos 750 vatios. En la siguiente fotografía podéis ver qué aspecto tiene el adaptador que nos permite enlazar dos conectores de alimentación de 8 pines con la toma de 12 pines integrada en la tarjeta.
La arquitectura Ampere, explicada
La diapositiva que publicamos debajo de estas líneas recoge algunas de las mejoras introducidas por NVIDIA en la arquitectura Ampere para permitir a las GPU que la utilizan aventajar a los procesadores gráficos con arquitectura Turing. Las nuevas GeForce RTX 30 incorporan, como hemos visto en los primeros párrafos del artículo, una mayor cantidad de núcleos RT y Tensor que los modelos equivalentes que las han precedido, pero, además, estos núcleos no son idénticos a las unidades homónimas integradas en las tarjetas GeForce RTX 20.
Los núcleos RT de 2ª generación son capaces de resolver hasta el doble de intersecciones de triángulos que las unidades de 1ª generación por unidad de tiempo. Y los núcleos Tensor de 3ª generación duplican el rendimiento de los de 2ª generación en la resolución de operaciones con las matrices dispersas que son tan habituales en los algoritmos de aprendizaje profundo.
Otra de las innovaciones interesantes que introduce la arquitectura Ampere es la aceleración por hardware del desenfoque de movimiento. La lógica que se encarga de llevar a cabo esta tarea está integrada en los núcleos RT, que, además de ser capaces de resolver más intersecciones de triángulos, en Ampere incorporan la lógica necesaria para interpolar la posición que va a tener un triángulo en varios instantes consecutivos, resolver de una forma eficiente la intersección de esos triángulos y aplicarles el filtro de desenfoque que requiere este efecto.
La optimización que los ingenieros de NVIDIA han introducido en los núcleos Tensor de 3ª generación les permite aventajar con mucha claridad a los de 2ª generación incluso cuando los primeros son inferiores en número. En la arquitectura Ampere cada SM (Stream Multiprocessor) incorpora 4 núcleos Tensor de 3ª generación, mientras que en Turing cada uno de ellos integra 8 núcleos Tensor de 2ª generación.
Sin embargo, esta presumible desventaja en número de Ampere no es tal. Y es que según NVIDIA los nuevos núcleos pueden resolver el doble de operaciones con matrices densas y el cuádruple de operaciones con matrices dispersas que los núcleos Tensor de la generación anterior.
Otra de las bazas de las tarjetas GeForce RTX 30 de gama alta que les permiten aventajar a sus predecesoras son sus chips de memoria GDDR6X. Este estándar propone una nueva señalización de cuatro niveles frente a los dos niveles de las memorias GDDR6; una nueva codificación que permite resolver las transiciones entre los cuatro niveles con más eficacia; y, por último, nuevos algoritmos para entrenamiento y adaptación.
El rendimiento del subsistema de memoria tiene un impacto profundo en las prestaciones de una tarjeta gráfica, pero, desafortunadamente, solo las GeForce RTX 3080 Ti, 3080 y 3090 incorporan chips GDDR6X. Los demás modelos de la serie GeForce RTX 30 se apoyan en chips GDDR6.
Como os he anticipado unos párrafos más arriba, la tecnología RTX IO permite a la GPU encargarse de la descompresión de los datos almacenados en el subsistema de almacenamiento secundario. Según NVIDIA sus procesadores gráficos de la serie RTX 30 acometen esta tarea arrojando un rendimiento 100 veces mayor que el de una CPU de propósito general gracias a su paralelismo masivo inherente. Y, además, liberan a esta última de esta carga de trabajo.
Pruebas de rendimiento: solidez absoluta a 2160p y casi en cualquier circunstancia
La configuración del equipo que hemos utilizado para evaluar el rendimiento de esta tarjeta gráfica es la siguiente: microprocesador Intel Core i9-10900K con 10 núcleos, 20 hilos de ejecución (threads) y una frecuencia de reloj máxima de 5,30 GHz; dos módulos de memoria Corsair Dominator Platinum DDR4-3600 con una capacidad conjunta de 16 GB y una latencia de 18-19-19-39; una placa base Gigabyte Z490 AORUS Master con chipset Intel Z490; una unidad SSD Samsung 970 EVO Plus con interfaz NVMe M.2 y una capacidad de 500 GB; un sistema de refrigeración por aire para la CPU Corsair A500 con ventilador de rodamientos por levitación magnética y una fuente de alimentación modular Corsair RM 750x.
Hemos utilizado esta plataforma de pruebas porque es la misma que hemos usado durante los últimos meses para probar a fondo las tarjetas gráficas de última generación que han lanzado tanto NVIDIA como AMD. Por último, el monitor que hemos utilizado en las pruebas es un ROG Strix XG27UQ de ASUS equipado con un panel LCD IPS de 27 pulgadas con resolución 4K UHD y capaz de trabajar a una frecuencia de refresco máxima de 144 Hz.
Todas las pruebas las hemos ejecutado con la máxima calidad gráfica implementada en cada juego o test y habilitando la API DirectX 12 en aquellos títulos en los que está disponible. El modo DLSS que hemos seleccionado en las tarjetas gráficas de NVIDIA en aquellos juegos que implementan esta tecnología es el que prioriza el rendimiento. Y, por último, las herramientas que hemos utilizado para recoger los datos son FrameView, de NVIDIA; OCAT, de AMD; y FRAPS. Las tres están disponibles gratuitamente.
Como podéis ver en la siguiente gráfica, la prueba Time Spy de 3DMark es un feudo de la Radeon RX 6900 XT de AMD. Esta tarjeta gráfica se impone con cierta contundencia a la GeForce RTX 3080 Ti, aunque esta última saca también una ventaja clara a las dos tarjetas que vienen detrás: la Radeon RX 6800 XT y la GeForce RTX 3080.
En 'Doom Eternal' sucede algo muy interesante. A 1080p y 1440p la tarjeta gráfica más rápida es la Radeon RX 6900 XT, pero cuando incrementamos la resolución a 2160p la GeForce RTX 3080 Ti consigue imponerse con bastante claridad. En este juego ya empezamos a ver que la nueva tarjeta gráfica de NVIDIA nos entrega lo mejor de sí misma, precisamente, a esta última resolución.
El rendimiento que ha arrojado la GeForce RTX 3080 Ti en 'Wolfenstein: Youngblood' a 1080p y 1440p es inusual en una tarjeta de este nivel. Es sorprendente que haya rendido peor que casi todas las otras tarjetas gráficas, por lo que sospecho que este resultado podría deberse a que los controladores que nos ha entregado NVIDIA para que podamos llevar a cabo este análisis aún no están del todo maduros. Sin embargo, a 2160p las aguas vuelven a su cauce. Como podéis ver en la gráfica, una vez más a esta resolución la GeForce RTX 3080 Ti doblega con autoridad a las demás tarjetas.
Los resultados que hemos obtenido en 'Death Stranding' merecen un análisis minucioso. Las Radeon RX 6900 XT y Radeon RX 6800 XT de AMD rinden de maravilla a todas las resoluciones, pero a 1440p, y, sobre todo, a 2160p, las tarjetas gráficas de NVIDIA tienen una baza muy contundente: la tecnología DLSS. Cuando esta innovación entra en acción la GeForce RTX 3080 Ti se impone con una claridad aplastante a la Radeon RX 6900 XT tanto a 1440p como a 2160p.
'Control' es uno de los juegos que implementa ray tracing, por lo que nos ha ayudado a poner a prueba el rendimiento de las tarjetas cuando se enfrentan al trazado de rayos. Por alguna razón (posiblemente debido a que los controladores están aún poco maduros), el motor de este juego no me ha dejado activar el DLSS en la GeForce RTX 3080 Ti.
Aun así, si nos ceñimos al rendimiento de todas las tarjetas con ray tracing y sin que medien las tecnologías de reconstrucción de la imagen, las ganadoras, y con cierta claridad, son las GeForce RTX 3080 Ti y RTX 3080. Curiosamente arrojan un rendimiento muy similar a las tres resoluciones.
Un apunte importante: la técnica de reconstrucción de imagen (RI) utilizada por las tarjetas de NVIDIA es DLSS 2.0, mientras que en las Radeon RX hemos recurrido al algoritmo de reconstrucción desde una resolución inferior implementado en el motor del propio juego.
'Battlefield V' fue uno de los primeros juegos que implementaron tanto ray tracing como DLSS, y continúa siendo un título muy interesante a la hora de poner a prueba el rendimiento de las tarjetas gráficas de nueva generación. En este juego la GeForce RTX 3080 Ti avasalla a todas las demás tarjetas. Incluso la también muy potente Radeon RX 6900 XT queda muy lejos de las cadencias que nos entrega la tarjeta gráfica de NVIDIA. Y, curiosamente, sin necesidad de que entre en acción la tecnología DLSS.
En 'DiRT 5' la GeForce RTX 3080 Ti campa a sus anchas a todas las resoluciones. La única tarjeta gráfica que aguanta su embestida es la Radeon RX 6900 XT de AMD, aunque a 2160p también se le acerca mucho la GeForce RTX 3080. En cualquier caso, en este juego la tarjeta que estamos analizando se mueve como pez en el agua.
'Godfall' ha arrojado un resultado inesperado. A 1080p la Radeon RX 6800 XT les ha sacado la cabeza a las demás tarjetas gráficas, pero en las otras dos resoluciones la ganadora es la GeForce RTX 3080 Ti, seguida de cerca por la Radeon RX 6900 XT. La GeForce RTX 3080 se queda un poco más rezagada, pero remonta posiciones a 2160p.
En 'Final Fantasy XV' la GeForce RTX 3080 Ti y la Radeon RX 6900 XT mantienen un pulso muy intenso. A 1080p y 1440p se impone la tarjeta gráfica de AMD, pero a 2160p es la solución de NVIDIA la que se alza con la victoria. De nuevo la GeForce RTX 3080 Ti nos entrega lo mejor de sí misma a 2160p.
En 'Rise of the Tomb Raider' la GeForce RTX 3080 Ti apabulla. Como podéis ver en la gráfica, supera a todas las demás tarjetas gráficas con una suficiencia insultante. Y, además, lo hace a todas las resoluciones. Resultan especialmente impactantes los más de 100 FPS sostenidos que nos entrega a 2160p.
En 'DiRT Rally' la GeForce RTX 3080 Ti vuelve a imponerse. Supera a todas las tarjetas gráficas que hemos analizado, y lo hace a todas las resoluciones. Y con mucha claridad. La mayor ventaja la arroja, una vez más, a 2160p.
Como podéis ver en la gráfica, la temperatura máxima que ha arrojado la GeForce RTX 3080 Ti durante nuestras pruebas es ligeramente inferior a la que ha alcanzado la GeForce RTX 3080. No obstante, las siete tarjetas gráficas trabajan bajo estrés en un rango de temperaturas muy razonable, lo que avala el sistema de refrigeración que han puesto a punto tanto los ingenieros de AMD como los de NVIDIA en sus diseños de referencia.
Para medir el nivel de ruido máximo emitido por cada tarjeta gráfica bajo estrés utilizamos nuestro sonómetro Velleman DVM805, y, como podéis ver en la siguiente gráfica, la GeForce RTX 3080 Ti se encuentra alineada con la media. La más ruidosa, y con cierta diferencia, es la Radeon RX 6900 XT, y la más silenciosa, también con cierta diferencia, es la más modesta GeForce RTX 3060 Ti.
La tecnología DLSS 2.0 funciona, y lo hace muy bien
Las pruebas de rendimiento que acabamos de revisar avalan el impacto positivo que tiene la reconstrucción de la imagen utilizando la tecnología DLSS 2.0 en la cadencia de imágenes por segundo. Sin embargo, nos queda un apartado por analizar: el impacto que tiene en la calidad de imagen.
A principios del pasado mes de enero publicamos un análisis profundo de esta tecnología en el que indagamos en todo lo que nos propone. Si tenéis curiosidad o si no estáis familiarizados con esta innovación quizá os resulte interesante leerlo. En cualquier caso, aquí tenéis un pequeño extracto de las conclusiones a las que llegamos en el ámbito de su impacto en la calidad de imagen.
El nivel de detalle de la imagen sin DLSS y el de la captura con DLSS 2.0 escalada a 2160p desde 1440p es esencialmente idéntico
Todas las capturas que vamos a analizar a continuación han sido tomadas a resolución 4K (3840 x 2160 puntos) y con el trazado de rayos activado en aquellos juegos que lo implementan. Además, las secciones de cada captura que hemos escogido proceden de un recorte al 300% que persigue ayudarnos a apreciar mejor los detalles y las diferencias que existen entre ellas.
Empezamos con 'Control'. Este juego implementa tanto trazado de rayos como DLSS. Además, nos propone varias modalidades de escalado tomando como referencia tres resoluciones de renderización: 2560 x 1440 puntos, 2227 x 1253 puntos y 1920 x 1080 puntos. Si observamos con detenimiento las capturas veremos que el nivel de detalle de la imagen sin DLSS y el de la captura con DLSS 2.0 escalada a 2160p desde 1440p es esencialmente idéntico. Esta última no contiene más ruido. Ni menos detalle.
Pero hay algo más. La calidad de imagen que nos entrega esta tecnología en este juego cuando la resolución de renderización es aún más baja (1253p y 1080p) sigue siendo muy alta. Si ampliamos al 300% la captura original utilizando un editor de imágenes y la comparamos con la imagen sin DLSS podemos apreciar una ligerísima pérdida de detalle en algunas zonas, como, por ejemplo, en el texto que observa la protagonista del videojuego. Pero es algo muy difícil de detectar en tiempo real mientras jugamos. El primer punto se lo lleva la tecnología DLSS 2.0.
Las capturas que hemos tomado en 'Death Stranding' nos deparan más sorpresas. Este juego no implementa trazado de rayos, pero nos propone tres modalidades diferentes de DLSS. Y, sorprendentemente, el modo que prioriza la calidad es indistinguible de la captura sin DLSS. Tienen el mismo nivel de detalle y el ruido es imperceptible en ambas imágenes. Además, al igual que en 'Control', la pérdida de detalle que se produce si elegimos el modo que prioriza el máximo rendimiento es lo suficientemente baja para pasar inadvertida mientras estamos jugando.
'Battlefield V' fue el primer juego que implementó la reconstrucción de imagen mediante DLSS. Desde que recibió la primera versión de esta innovación su rendimiento ha mejorado sensiblemente gracias a varias actualizaciones, y, aunque no utiliza DLSS 2.0, nos depara una sorpresa inesperada: algunas zonas de la captura reconstruida a 2160p mediante DLSS tienen más detalle que la imagen capturada de forma nativa a esta resolución. Es algo inesperado, pero refleja lo bien que puede funcionar esta tecnología cuando se implementa correctamente. Podemos observar este ligero incremento del nivel de detalle en las juntas de los ladrillos y en el cartel que corona el edificio.
Concluimos el análisis de la calidad de imagen con 'Bright Memory Infinite', y, una vez más, DLSS 2.0 sale airosa. Al igual que en 'Battlefield V', el modo que prioriza la calidad consigue recuperar más detalle en algunas zonas que la captura sin DLSS (podemos observarlo en el tejido del pantalón y en el pavimento en primer plano), y la pérdida de detalle que se produce en los modos Balance y Performance es tan baja que es esencialmente imperceptible mientras estamos jugando.
NVIDIA GeForce RTX 3080 Ti: la opinión de Xataka
Como hemos comprobado a lo largo de este análisis, lo que os hemos anticipado en el titular de este artículo es estrictamente cierto: esta tarjeta gráfica es una auténtica bestia. Arroja un rendimiento tremendo en todos los juegos, especialmente a 2160p, y es probable que cuando NVIDIA refine aún más los controladores su productividad en algunos títulos se incremente sensiblemente.
Muy pocas tarjetas gráficas nos responden pisando el acelerador a fondo cuando las llevamos al límite, pero esta GeForce RTX 3080 Ti se crece ante la adversidad
El secreto de su rendimiento es, en realidad, un secreto a voces. Y es que no cabe duda de que NVIDIA ha dimensionado su hardware para que consiga entregarnos todo su potencial a 2160p, y especialmente cuando las exigencias gráficas aprietan, por ejemplo, al activar el trazado de rayos. No obstante, no podemos pasar por alto el tándem que forman esta GPU y las tecnologías que la respaldan, especialmente DLSS 2.0 y la tecnología Reflex.
Muy pocas tarjetas gráficas nos responden pisando el acelerador a fondo cuando las llevamos al límite. La mayor parte de ellas se achantan en estas circunstancias, pero esta GeForce RTX 3080 Ti se crece cuando introducimos en la receta los gráficos a 2160p y el ray tracing.
Las mayores pegas que puedo ponerle son su precio, que la coloca fuera del alcance de buena parte de los jugadores, y también lo difícil que previsiblemente será conseguir una. Al menos al precio fijado por NVIDIA. Ojalá me equivoque y la limitación de la tasa de hash cumpla su papel, permitiendo a quien quiera una comprarla al precio oficial y sin dejarse la piel en el empeño. Pero parece poco probable que suceda esto si nos limitamos a observar cómo se está comportando el mercado actualmente. Crucemos los dedos.
Esta tarjeta gráfica ha sido cedida para la prueba por NVIDIA. Puedes consultar nuestra política de relaciones con las empresas.
Más información | NVIDIA
Ver 42 comentarios