Además de presentar las nuevas GPU que lanzará al mercado, NVIDIA mostró la IA con la que mejorará su potencia hasta cuatro veces más.
NVIDIA ha presentado DLSS 3, tecnología que multiplica el rendimiento de sus nuevas tarjetas gráficas RTX 4090 y RTX 4080 mediante inteligencia artificial. Mediante su uso, la GPU podrá incrementar su performance de renderizado por fuerza bruta hasta 4 veces más para ofrecer una mejor calidad de imagen en software de gran exigencia como programas de edición o videojuegos.
La tecnología fue revelada durante el GeForce Beyond, evento en el que NVIDIA también mostró por primera vez al mundo las nuevas tarjetas gráficas de la serie 40 basadas en la arquitectura Ada Lovelace que llegan para establecer un nuevo tope de gama en los productos de la compañía.
Al igual que las GeForce RTX 4090 y RTX 4080, NVIDIA DLSS 3 será lanzado el 12 de octubre.
NVIDIA multiplica por 4 el rendimiento de sus nuevas GPU
Mediante los Tensor Cores de cuarta generación y el Optical Flow Accelerator que vienen instalados en las tarjetas gráficas GeForce RTX serie 40, DLSS 3 -Deep Learning Super Sampling- es la tercera generación de la tecnología compatible con los últimos lanzamientos de la compañía.
Por una parte, Optical Multi Frame Generation crea nuevos frames completos en lugar de solo píxeles para ofrecer un mejor rendimiento. Además, el nuevo Optical Flow Accelerator que viene incorporado en la arquitectura NVIDIA Ada Lovelace permite el análisis de dos imágenes secuenciales del software para calcular el vector de movimiento de los objetos y otros elementos que aparecen en pantalla pero que no son modelados por los vectores del motor gráfico. De este modo, se reduce drásticamente la cantidad de anomalías visuales en partículas, reflejos, sombras e iluminación.
Los cuadros por segundo en superresolución del software son alimentados mediante una red neural convolucional que escanea los datos y crea un frame adicional por cada frame generado automáticamente. Es así como DLSS 3 puede reconstruir siete octavos de los píxeles mostrados en la pantalla usando la IA.
Esto es posible incluso si el software tiene un cuello de botella en el procesador, ya que la generación de frames de DLSS 3 se lleva a cabo en un post proceso de la GPU. Por ejemplo, en programas muy exigentes como videojuegos de mundo abierto, la tecnología permite que las tarjetas de la serie 40 rendericen hasta el doble de rápido que una CPU.
“DLSS es una de nuestras mejores invenciones y ha hecho posible el trazado de rayos en tiempo real. DLSS 3 supone otro salto adelante para gamers y creadores. Nuestro trabajo, pionero en renderizado neural con RTX, ha abierto un nuevo universo de posibilidades donde la IA juega un papel central en la creación de mundos virtuales”, mencionó Jensen Huang, fundador y actual CEO de NVIDIA.
Más de 35 juegos compatibles con NVIDIA DLSS 3
Hasta el momento, algunos desarrolladores de videojuegos han confirmado el soporte de la tecnología DLSS 3 de NVIDIA en sus respectivos títulos. Principalmente, esta IA llega a los proyectos creados en los motores gráficos Unity y Unreal Engine. La lista de videojuegos que han anunciado el soporte a esta tecnología es la siguiente:
- A Plague Tale: Requiem
- Atomic Heart
- Black Myth: Wukong
- Bright Memory: Infinite
- Chernobylite
- Conqueror’s Blade
- Cyberpunk 2077
- Dakar Rally
- Deliver Us Mars
- Destroy All Humans! 2 – Reprobed
- Dying Light 2 Stay Human
- F1® 22
- F.I.S.T.: Forged In Shadow Torch
- Frostbite Engine
- HITMAN 3
- Hogwarts Legacy
- ICARUS
- Jurassic World Evolution 2
- Justice
- Loopmancer
- Marauders
- Microsoft Flight Simulator
- Midnight Ghost Hunt
- Mount & Blade II: Bannerlord
- Naraka Bladepoint
- NVIDIA Omniverse™
- NVIDIA Racer RTX
- PERISH
- Portal With RTX
- Ripout
- S.T.A.L.K.E.R 2: Heart of Chornobyl
- Scathe
- Sword and Fairy 7
- SYNCED
- The Lord of the Rings: Gollum
- The Witcher 3: Wild Hunt
- THRONE AND LIBERTY
- Tower of Fantasy
- Unity
- Unreal Engine 4 & 5
- Warhammer 40,000: Darktide
Te recomendamos METADATA, el podcast de tecnología de RPP. Noticias, análisis, reseñas, recomendaciones y todo lo que debes saber sobre el mundo tecnológico.
Comparte esta noticia