NVIDIA CES 2026: DLSS 4.5, Neural Shaders y la Supercomputadora de IA Vera Rubin
Puntos Clave
- ✓ DLSS 4.5 introduce Generación Multi-Frame 6X—insertando hasta 5 frames de IA entre cada frame renderizado
- ✓ RTX Neural Shaders llevan materiales e iluminación con calidad cinematográfica al renderizado en tiempo real
- ✓ La supercomputadora de IA Vera Rubin NVL72 promete inferencia 5 veces más rápida y costo por token 10 veces menor que Blackwell
- ✓ G-SYNC Pulsar ofrece movimiento más fluido a través de estroboscopía de retroiluminación de frecuencia variable
- ✓ Jensen Huang declara que el futuro de los gráficos es el renderizado neuronal, no la rasterización tradicional
La Visión de NVIDIA para el Futuro de los Gráficos
En CES 2026, el CEO de NVIDIA Jensen Huang hizo una declaración audaz: el futuro de los gráficos es el renderizado neuronal.
La keynote de la compañía y los anuncios posteriores revelaron un cambio fundamental en cómo las GPUs manejarán tanto cargas de trabajo de gaming como de IA—con importantes implicaciones para creadores que trabajan con herramientas de generación de video con IA.
DLSS 4.5: Generación Multi-Frame 6X
La característica principal para gamers y creadores es DLSS 4.5, que introduce un modelo transformer de segunda generación y una Generación Multi-Frame dramáticamente expandida.
Qué Hay de Nuevo en DLSS 4.5
| Característica | DLSS 4.0 | DLSS 4.5 |
|---|---|---|
| Generación Multi-Frame | 3X (2 frames insertados) | 6X (5 frames insertados) |
| Modelo de IA | Transformer de primera generación | Transformer de segunda generación |
| Impacto en Latencia | Moderado | Reducido mediante optimización |
| Calidad de Imagen | Alta | Mayor con mejor estabilidad temporal |
La Generación Multi-Frame 6X puede insertar hasta cinco frames generados por IA entre cada frame renderizado tradicionalmente. En demostraciones, NVIDIA mostró Black Myth: Wukong corriendo a 246 fps con solo 53ms de latencia en una RTX 5090 usando MFG 6X.
Por Qué Esto Importa para el Video con IA
La tecnología de Generación Multi-Frame comparte ADN con la generación de video con IA:
- Interpolación de frames: Los mismos conceptos impulsan herramientas como la expansión de frames de Runway
- Consistencia temporal: Mantener movimiento coherente a través de frames generados es crucial tanto para gaming como para video con IA
- Inferencia en tiempo real: Las técnicas desarrolladas aquí eventualmente permitirán generación de video con IA local más rápida
RTX Neural Shaders: Renderizado con Calidad Cinematográfica
Quizás el anuncio más significativo a largo plazo son los RTX Neural Shaders—una reimaginación fundamental de cómo se renderizan los materiales y la iluminación.
Renderizado Tradicional vs. Neuronal
El renderizado tradicional usa aproximaciones matemáticas para simular cómo la luz interactúa con las superficies. El renderizado neuronal reemplaza estas aproximaciones con modelos de IA entrenados en física del mundo real.
El resultado: materiales indistinguibles de la realidad, con dispersión subsuperficial precisa, reflejos complejos y sombras realistas.
Aplicaciones Más Allá del Gaming
RTX Neural Shaders impactarán:
- Producción virtual: Fondos en tiempo real que coinciden con metraje de cámara física
- Generación de video con IA: Mejores datos de entrenamiento y salidas más realistas
- Creación de assets 3D: Iteración más rápida en materiales fotorrealistas
- Visualización arquitectónica: Recorridos en tiempo real con iluminación cinematográfica
“La RTX 5090 podría representar el pináculo de las GPUs tradicionales basadas en rasterización. El futuro es el renderizado neuronal.” — Jensen Huang, CEO de NVIDIA
Vera Rubin NVL72: La Próxima Supercomputadora de IA
Mirando más allá de las GPUs de consumo, NVIDIA presentó la Vera Rubin NVL72—su arquitectura de supercomputadora de IA de próxima generación.
Especificaciones de Vera Rubin
| Componente | Detalles |
|---|---|
| GPU | GPU Rubin (50 PFLOPS inferencia, 35 PFLOPS entrenamiento por chip) |
| CPU | CPU Vera |
| Interconexión | NVLink 6 |
| Redes | ConnectX-9 SuperNIC, BlueField-4 DPU |
| Rendimiento | 5x mayor inferencia vs. Blackwell |
| Eficiencia | 10x menor costo por token vs. Blackwell |
| Disponibilidad | Segunda mitad de 2026 |
Lo Que Esto Significa para las Herramientas de IA
La arquitectura Vera Rubin impulsará la próxima generación de servicios de IA en la nube. Para los creadores, esto se traduce en:
- Generación en la nube más rápida: Herramientas como Runway, Pika y Sora correrán en hardware más potente
- Costos más bajos: La mejora de eficiencia 10x podría significar precios más bajos o niveles gratuitos más generosos
- Modelos más complejos: Mayor rendimiento permite videos más largos, resoluciones más altas y más parámetros
G-SYNC Pulsar: Movimiento Más Fluido
NVIDIA también presentó G-SYNC Pulsar, la próxima evolución de la tecnología de Tasa de Refresco Variable.
G-SYNC Pulsar combina sincronización adaptativa con estroboscopía de retroiluminación de frecuencia variable, reduciendo el desenfoque de movimiento mientras mantiene una entrega de frames fluida. Para editores de video y creadores que pasan horas revisando material, esto significa menos fatiga visual y evaluación de movimiento más precisa.
El Futuro del Renderizado Neuronal
La keynote de Jensen Huang enfatizó un mensaje claro: el renderizado tradicional ha alcanzado su pico.
El camino a seguir es el renderizado neuronal—usar IA para generar píxeles en lugar de calcularlos matemáticamente. Esto tiene profundas implicaciones:
Corto Plazo (2026-2027)
- RTX Neural Shaders en los principales motores de juegos
- Flujos de trabajo híbridos combinando renderizado tradicional y neuronal
- Mejora de escalado y mejoramiento de video con IA
Mediano Plazo (2027-2029)
- Renderizado neuronal en tiempo real para producción virtual
- Entornos generados por IA indistinguibles de la realidad
- Flujos de trabajo unificados para gaming, cine y medios interactivos
Largo Plazo (2030+)
- Pipelines de gráficos completamente neuronales
- Generación en tiempo real de contenido fotorrealista a partir de descripciones de texto
- La línea entre “renderizado” y “generado” desaparece
Lo Que los Creadores Deben Observar
Para Creadores de Video con IA
| Anuncio | Impacto |
|---|---|
| DLSS 4.5 | Mejor comprensión de técnicas de interpolación de frames |
| Neural Shaders | Datos de entrenamiento de mayor calidad para futuros modelos de IA |
| Vera Rubin | Generación de video con IA en la nube más rápida y económica |
Para Productores de Contenido
| Anuncio | Impacto |
|---|---|
| G-SYNC Pulsar | Mejor monitoreo para edición de video |
| Neural Shaders | Mejoras en producción virtual en tiempo real |
| RTX 5090 | Flujos de trabajo de IA locales más potentes |
Explora Herramientas de Video con IA
Compara los principales generadores de video con IA y encuentra la herramienta adecuada para tu flujo de trabajo
Ver Comparativas →RTX 5090: ¿La Última GPU de Rasterización?
La GeForce RTX 5090, anunciada junto con estas características, puede representar un punto de inflexión. Jensen Huang insinuó que podría ser “el pináculo de las GPUs tradicionales basadas en rasterización”—sugiriendo que las generaciones futuras serán principalmente dispositivos de renderizado neuronal.
Por ahora, la RTX 5090 ofrece:
- Soporte completo para DLSS 4.5 con Generación Multi-Frame 6X
- RTX Neural Shaders
- Inferencia de IA local mejorada para herramientas como ComfyUI
- Mejor rendimiento para escalado y mejoramiento de video con IA
Resumen del Cronograma
| Característica | Disponibilidad |
|---|---|
| DLSS 4.5 | Disponible con RTX Serie 50 |
| RTX Neural Shaders | Despliegue en 2026 |
| G-SYNC Pulsar | Disponible con monitores compatibles |
| GeForce RTX 5090 | Lanzamiento Q1 2026 |
| Vera Rubin NVL72 | Segunda mitad de 2026 |
Preguntas Frecuentes
¿Qué es DLSS 4.5?
DLSS 4.5 es la última tecnología de Deep Learning Super Sampling de NVIDIA, con un modelo transformer de segunda generación y Generación Multi-Frame 6X que puede insertar hasta 5 frames generados por IA entre cada frame renderizado.
¿Qué son los RTX Neural Shaders?
Los RTX Neural Shaders usan IA para renderizar materiales e iluminación en tiempo real, reemplazando las aproximaciones matemáticas tradicionales con redes neuronales entrenadas en física del mundo real. El resultado son visuales con calidad cinematográfica en aplicaciones en tiempo real.
¿Cuándo estará disponible Vera Rubin?
La supercomputadora de IA Vera Rubin NVL72 está programada para la segunda mitad de 2026. Promete un rendimiento de inferencia 5 veces mayor y un costo por token 10 veces menor en comparación con la arquitectura Blackwell actual.
¿Cómo afecta esto a la generación de video con IA?
Estos avances impactan el video con IA de múltiples maneras: técnicas mejoradas de interpolación de frames (DLSS 4.5), datos de entrenamiento de mayor calidad (Neural Shaders) e inferencia en la nube más rápida/económica (Vera Rubin) beneficiarán todas las herramientas de video con IA.
¿Es la RTX 5090 buena para la creación de video con IA?
Sí. La RTX 5090 soporta DLSS 4.5, RTX Neural Shaders e inferencia de IA local mejorada. Es particularmente beneficiosa para flujos de trabajo de IA locales usando herramientas como ComfyUI y para escalado de video con IA.
Fuentes
- Tom’s Hardware: NVIDIA Launches Vera Rubin NVL72
- NVIDIA GeForce News: CES 2026 RTX Announcements
- PC Gamer: NVIDIA DLSS 4.5 Multi-Frame Generation
- Tom’s Hardware: Jensen Huang on Neural Rendering