NVIDIA CES 2026: DLSS 4.5, Neural Shaders und der Vera Rubin KI-Supercomputer
Wichtige Erkenntnisse
- ✓ DLSS 4.5 führt 6-fache Multi-Frame-Generierung ein – bis zu 5 KI-Frames werden zwischen jedem gerenderten Frame eingefügt
- ✓ RTX Neural Shaders bringen filmreife Materialien und Beleuchtung ins Echtzeit-Rendering
- ✓ Der Vera Rubin NVL72 KI-Supercomputer verspricht 5-fach schnellere Inferenz und 10-fach niedrigere Kosten pro Token als Blackwell
- ✓ G-SYNC Pulsar liefert flüssigere Bewegungen durch variable Frequenz-Backlight-Strobing
- ✓ Jensen Huang erklärt die Zukunft der Grafik: Neurales Rendering statt traditioneller Rasterisierung
NVIDIAs Vision für die Zukunft der Grafik
Auf der CES 2026 machte NVIDIA-CEO Jensen Huang eine mutige Ankündigung: Die Zukunft der Grafik ist neurales Rendering.
Die Keynote und nachfolgende Ankündigungen des Unternehmens zeigten einen fundamentalen Wandel in der Art, wie GPUs sowohl Gaming- als auch KI-Workloads verarbeiten werden – mit großen Auswirkungen für Creator, die mit KI-Videogenerierungstools arbeiten.
DLSS 4.5: 6-fache Multi-Frame-Generierung
Das Hauptfeature für Gamer und Creator ist DLSS 4.5, das ein Transformer-Modell der zweiten Generation und eine dramatisch erweiterte Multi-Frame-Generierung einführt.
Was ist neu in DLSS 4.5
| Feature | DLSS 4.0 | DLSS 4.5 |
|---|---|---|
| Multi-Frame-Generierung | 3-fach (2 Frames eingefügt) | 6-fach (5 Frames eingefügt) |
| KI-Modell | Transformer der ersten Generation | Transformer der zweiten Generation |
| Latenz-Auswirkung | Moderat | Reduziert durch Optimierung |
| Bildqualität | Hoch | Höher mit besserer temporaler Stabilität |
Die 6-fache Multi-Frame-Generierung kann bis zu fünf KI-generierte Frames zwischen jedem traditionell gerenderten Frame einfügen. In Demonstrationen zeigte NVIDIA Black Myth: Wukong mit 246 fps bei nur 53ms Latenz auf einer RTX 5090 mit 6-fach MFG.
Warum das für KI-Video wichtig ist
Multi-Frame-Generierungstechnologie teilt die DNA mit KI-Videogenerierung:
- Frame-Interpolation: Dieselben Konzepte treiben Tools wie Runways Frame-Expansion an
- Temporale Konsistenz: Kohärente Bewegung über generierte Frames hinweg ist entscheidend für Gaming und KI-Video
- Echtzeit-Inferenz: Die hier entwickelten Techniken werden letztendlich schnellere lokale KI-Videogenerierung ermöglichen
RTX Neural Shaders: Filmreife Rendering-Qualität
Die langfristig bedeutendste Ankündigung sind RTX Neural Shaders – eine fundamentale Neugestaltung, wie Materialien und Beleuchtung gerendert werden.
Traditionelles vs. Neurales Rendering
Traditionelles Rendering verwendet mathematische Annäherungen, um zu simulieren, wie Licht mit Oberflächen interagiert. Neurales Rendering ersetzt diese Annäherungen durch KI-Modelle, die auf realer Physik trainiert wurden.
Das Ergebnis: Materialien, die von der Realität nicht zu unterscheiden sind, mit akkuratem Subsurface Scattering, komplexen Reflexionen und realistischen Schatten.
Anwendungen über Gaming hinaus
RTX Neural Shaders werden beeinflussen:
- Virtuelle Produktion: Echtzeit-Hintergründe, die zu physischem Kameramaterial passen
- KI-Videogenerierung: Bessere Trainingsdaten und realistischere Ausgaben
- 3D-Asset-Erstellung: Schnellere Iteration bei fotorealistischen Materialien
- Architekturvisualisierung: Echtzeit-Rundgänge mit filmreifer Beleuchtung
„Die RTX 5090 könnte den Höhepunkt der traditionellen rasterbasierten GPUs darstellen. Die Zukunft ist neurales Rendering.” — Jensen Huang, NVIDIA CEO
Vera Rubin NVL72: Der nächste KI-Supercomputer
Über Consumer-GPUs hinausblickend enthüllte NVIDIA den Vera Rubin NVL72 – seine KI-Supercomputer-Architektur der nächsten Generation.
Vera Rubin Spezifikationen
| Komponente | Details |
|---|---|
| GPU | Rubin GPU (50 PFLOPS Inferenz, 35 PFLOPS Training pro Chip) |
| CPU | Vera CPU |
| Interconnect | NVLink 6 |
| Netzwerk | ConnectX-9 SuperNIC, BlueField-4 DPU |
| Leistung | 5-fach höhere Inferenz vs. Blackwell |
| Effizienz | 10-fach niedrigere Kosten pro Token vs. Blackwell |
| Verfügbarkeit | Zweite Jahreshälfte 2026 |
Was das für KI-Tools bedeutet
Die Vera Rubin-Architektur wird die nächste Generation von Cloud-KI-Diensten antreiben. Für Creator bedeutet das:
- Schnellere Cloud-Generierung: Tools wie Runway, Pika und Sora werden auf leistungsstärkerer Hardware laufen
- Niedrigere Kosten: 10-fache Effizienzverbesserung könnte niedrigere Preise oder großzügigere kostenlose Kontingente bedeuten
- Komplexere Modelle: Höhere Leistung ermöglicht längere Videos, höhere Auflösungen und mehr Parameter
G-SYNC Pulsar: Flüssigere Bewegungen
NVIDIA enthüllte auch G-SYNC Pulsar, die nächste Evolution der Variable Refresh Rate-Technologie.
G-SYNC Pulsar kombiniert adaptive Synchronisation mit variablem Frequenz-Backlight-Strobing, reduziert Bewegungsunschärfe und erhält gleichzeitig eine flüssige Frame-Auslieferung. Für Videoeditoren und Creator, die stundenlang Material sichten, bedeutet das weniger Augenbelastung und präzisere Bewegungsbeurteilung.
Die Zukunft des Neuralen Renderings
Jensen Huangs Keynote betonte eine klare Botschaft: Traditionelles Rendering hat seinen Höhepunkt erreicht.
Der Weg nach vorn ist neurales Rendering – die Verwendung von KI zur Pixel-Generierung anstelle mathematischer Berechnungen. Das hat tiefgreifende Auswirkungen:
Kurzfristig (2026-2027)
- RTX Neural Shaders in großen Game-Engines
- Hybride Workflows, die traditionelles und neurales Rendering kombinieren
- Verbessertes KI-Video-Upscaling und -Enhancement
Mittelfristig (2027-2029)
- Echtzeit-neurales Rendering für virtuelle Produktion
- KI-generierte Umgebungen, die von der Realität nicht zu unterscheiden sind
- Vereinheitlichte Workflows für Gaming, Film und interaktive Medien
Langfristig (2030+)
- Vollständig neurale Grafik-Pipelines
- Echtzeit-Generierung fotorealistischer Inhalte aus Textbeschreibungen
- Die Grenze zwischen „gerendert” und „generiert” verschwindet
Was Creator beachten sollten
Für KI-Video-Creator
| Ankündigung | Auswirkung |
|---|---|
| DLSS 4.5 | Besseres Verständnis von Frame-Interpolationstechniken |
| Neural Shaders | Höherwertige Trainingsdaten für zukünftige KI-Modelle |
| Vera Rubin | Schnellere, günstigere Cloud-KI-Videogenerierung |
Für Content-Produzenten
| Ankündigung | Auswirkung |
|---|---|
| G-SYNC Pulsar | Besseres Monitoring für Videobearbeitung |
| Neural Shaders | Verbesserungen bei virtueller Echtzeit-Produktion |
| RTX 5090 | Leistungsstärkere lokale KI-Workflows |
KI-Videotools entdecken
Vergleichen Sie die führenden KI-Videogeneratoren und finden Sie das richtige Tool für Ihren Workflow
Vergleiche ansehen →RTX 5090: Die letzte Raster-GPU?
Die GeForce RTX 5090, die zusammen mit diesen Features angekündigt wurde, könnte einen Wendepunkt darstellen. Jensen Huang deutete an, dass sie „der Höhepunkt der traditionellen rasterbasierten GPUs” sein könnte – was nahelegt, dass zukünftige Generationen primär neurale Rendering-Geräte sein werden.
Vorerst bietet die RTX 5090:
- Volle DLSS 4.5-Unterstützung mit 6-facher Multi-Frame-Generierung
- RTX Neural Shaders
- Verbesserte lokale KI-Inferenz für Tools wie ComfyUI
- Bessere Leistung für KI-Video-Upscaling und -Enhancement
Zeitplan-Zusammenfassung
| Feature | Verfügbarkeit |
|---|---|
| DLSS 4.5 | Verfügbar mit RTX 50 Serie |
| RTX Neural Shaders | Rollout im Jahr 2026 |
| G-SYNC Pulsar | Verfügbar mit kompatiblen Monitoren |
| GeForce RTX 5090 | Launch Q1 2026 |
| Vera Rubin NVL72 | Zweite Jahreshälfte 2026 |
Häufig gestellte Fragen
Was ist DLSS 4.5?
DLSS 4.5 ist NVIDIAs neueste Deep Learning Super Sampling-Technologie mit einem Transformer-Modell der zweiten Generation und 6-facher Multi-Frame-Generierung, die bis zu 5 KI-generierte Frames zwischen jedem gerenderten Frame einfügen kann.
Was sind RTX Neural Shaders?
RTX Neural Shaders verwenden KI, um Materialien und Beleuchtung in Echtzeit zu rendern und ersetzen traditionelle mathematische Annäherungen durch neuronale Netze, die auf realer Physik trainiert wurden. Das Ergebnis sind filmreife Visuals in Echtzeit-Anwendungen.
Wann wird Vera Rubin verfügbar sein?
Der Vera Rubin NVL72 KI-Supercomputer ist für die zweite Jahreshälfte 2026 geplant. Er verspricht 5-fach höhere Inferenzleistung und 10-fach niedrigere Kosten pro Token im Vergleich zur aktuellen Blackwell-Architektur.
Wie beeinflusst das die KI-Videogenerierung?
Diese Fortschritte beeinflussen KI-Video auf mehrere Arten: verbesserte Frame-Interpolationstechniken (DLSS 4.5), hochwertigere Trainingsdaten (Neural Shaders) und schnellere/günstigere Cloud-Inferenz (Vera Rubin) werden alle KI-Videotools zugutekommen.
Ist die RTX 5090 gut für KI-Videoerstellung?
Ja. Die RTX 5090 unterstützt DLSS 4.5, RTX Neural Shaders und verbesserte lokale KI-Inferenz. Sie ist besonders vorteilhaft für lokale KI-Workflows mit Tools wie ComfyUI und für KI-Video-Upscaling.
Quellen
- Tom’s Hardware: NVIDIA Launches Vera Rubin NVL72
- NVIDIA GeForce News: CES 2026 RTX Announcements
- PC Gamer: NVIDIA DLSS 4.5 Multi-Frame Generation
- Tom’s Hardware: Jensen Huang on Neural Rendering