NVIDIA CES 2026: DLSS 4.5, Neural Shaders und der Vera Rubin KI-Supercomputer

Von GenMediaLab 6 Min. Lesezeit
NVIDIA CES 2026 KI-Ankündigungen

Wichtige Erkenntnisse

  • DLSS 4.5 führt 6-fache Multi-Frame-Generierung ein – bis zu 5 KI-Frames werden zwischen jedem gerenderten Frame eingefügt
  • RTX Neural Shaders bringen filmreife Materialien und Beleuchtung ins Echtzeit-Rendering
  • Der Vera Rubin NVL72 KI-Supercomputer verspricht 5-fach schnellere Inferenz und 10-fach niedrigere Kosten pro Token als Blackwell
  • G-SYNC Pulsar liefert flüssigere Bewegungen durch variable Frequenz-Backlight-Strobing
  • Jensen Huang erklärt die Zukunft der Grafik: Neurales Rendering statt traditioneller Rasterisierung

NVIDIAs Vision für die Zukunft der Grafik

Auf der CES 2026 machte NVIDIA-CEO Jensen Huang eine mutige Ankündigung: Die Zukunft der Grafik ist neurales Rendering.

Die Keynote und nachfolgende Ankündigungen des Unternehmens zeigten einen fundamentalen Wandel in der Art, wie GPUs sowohl Gaming- als auch KI-Workloads verarbeiten werden – mit großen Auswirkungen für Creator, die mit KI-Videogenerierungstools arbeiten.

DLSS 4.5: 6-fache Multi-Frame-Generierung

Das Hauptfeature für Gamer und Creator ist DLSS 4.5, das ein Transformer-Modell der zweiten Generation und eine dramatisch erweiterte Multi-Frame-Generierung einführt.

Was ist neu in DLSS 4.5

FeatureDLSS 4.0DLSS 4.5
Multi-Frame-Generierung3-fach (2 Frames eingefügt)6-fach (5 Frames eingefügt)
KI-ModellTransformer der ersten GenerationTransformer der zweiten Generation
Latenz-AuswirkungModeratReduziert durch Optimierung
BildqualitätHochHöher mit besserer temporaler Stabilität

Die 6-fache Multi-Frame-Generierung kann bis zu fünf KI-generierte Frames zwischen jedem traditionell gerenderten Frame einfügen. In Demonstrationen zeigte NVIDIA Black Myth: Wukong mit 246 fps bei nur 53ms Latenz auf einer RTX 5090 mit 6-fach MFG.

Warum das für KI-Video wichtig ist

Multi-Frame-Generierungstechnologie teilt die DNA mit KI-Videogenerierung:

  • Frame-Interpolation: Dieselben Konzepte treiben Tools wie Runways Frame-Expansion an
  • Temporale Konsistenz: Kohärente Bewegung über generierte Frames hinweg ist entscheidend für Gaming und KI-Video
  • Echtzeit-Inferenz: Die hier entwickelten Techniken werden letztendlich schnellere lokale KI-Videogenerierung ermöglichen

RTX Neural Shaders: Filmreife Rendering-Qualität

Die langfristig bedeutendste Ankündigung sind RTX Neural Shaders – eine fundamentale Neugestaltung, wie Materialien und Beleuchtung gerendert werden.

Traditionelles vs. Neurales Rendering

Traditionelles Rendering verwendet mathematische Annäherungen, um zu simulieren, wie Licht mit Oberflächen interagiert. Neurales Rendering ersetzt diese Annäherungen durch KI-Modelle, die auf realer Physik trainiert wurden.

Das Ergebnis: Materialien, die von der Realität nicht zu unterscheiden sind, mit akkuratem Subsurface Scattering, komplexen Reflexionen und realistischen Schatten.

Anwendungen über Gaming hinaus

RTX Neural Shaders werden beeinflussen:

  • Virtuelle Produktion: Echtzeit-Hintergründe, die zu physischem Kameramaterial passen
  • KI-Videogenerierung: Bessere Trainingsdaten und realistischere Ausgaben
  • 3D-Asset-Erstellung: Schnellere Iteration bei fotorealistischen Materialien
  • Architekturvisualisierung: Echtzeit-Rundgänge mit filmreifer Beleuchtung

„Die RTX 5090 könnte den Höhepunkt der traditionellen rasterbasierten GPUs darstellen. Die Zukunft ist neurales Rendering.” — Jensen Huang, NVIDIA CEO

Vera Rubin NVL72: Der nächste KI-Supercomputer

Über Consumer-GPUs hinausblickend enthüllte NVIDIA den Vera Rubin NVL72 – seine KI-Supercomputer-Architektur der nächsten Generation.

Vera Rubin Spezifikationen

KomponenteDetails
GPURubin GPU (50 PFLOPS Inferenz, 35 PFLOPS Training pro Chip)
CPUVera CPU
InterconnectNVLink 6
NetzwerkConnectX-9 SuperNIC, BlueField-4 DPU
Leistung5-fach höhere Inferenz vs. Blackwell
Effizienz10-fach niedrigere Kosten pro Token vs. Blackwell
VerfügbarkeitZweite Jahreshälfte 2026

Was das für KI-Tools bedeutet

Die Vera Rubin-Architektur wird die nächste Generation von Cloud-KI-Diensten antreiben. Für Creator bedeutet das:

  • Schnellere Cloud-Generierung: Tools wie Runway, Pika und Sora werden auf leistungsstärkerer Hardware laufen
  • Niedrigere Kosten: 10-fache Effizienzverbesserung könnte niedrigere Preise oder großzügigere kostenlose Kontingente bedeuten
  • Komplexere Modelle: Höhere Leistung ermöglicht längere Videos, höhere Auflösungen und mehr Parameter

G-SYNC Pulsar: Flüssigere Bewegungen

NVIDIA enthüllte auch G-SYNC Pulsar, die nächste Evolution der Variable Refresh Rate-Technologie.

G-SYNC Pulsar kombiniert adaptive Synchronisation mit variablem Frequenz-Backlight-Strobing, reduziert Bewegungsunschärfe und erhält gleichzeitig eine flüssige Frame-Auslieferung. Für Videoeditoren und Creator, die stundenlang Material sichten, bedeutet das weniger Augenbelastung und präzisere Bewegungsbeurteilung.

Die Zukunft des Neuralen Renderings

Jensen Huangs Keynote betonte eine klare Botschaft: Traditionelles Rendering hat seinen Höhepunkt erreicht.

Der Weg nach vorn ist neurales Rendering – die Verwendung von KI zur Pixel-Generierung anstelle mathematischer Berechnungen. Das hat tiefgreifende Auswirkungen:

Kurzfristig (2026-2027)

  • RTX Neural Shaders in großen Game-Engines
  • Hybride Workflows, die traditionelles und neurales Rendering kombinieren
  • Verbessertes KI-Video-Upscaling und -Enhancement

Mittelfristig (2027-2029)

  • Echtzeit-neurales Rendering für virtuelle Produktion
  • KI-generierte Umgebungen, die von der Realität nicht zu unterscheiden sind
  • Vereinheitlichte Workflows für Gaming, Film und interaktive Medien

Langfristig (2030+)

  • Vollständig neurale Grafik-Pipelines
  • Echtzeit-Generierung fotorealistischer Inhalte aus Textbeschreibungen
  • Die Grenze zwischen „gerendert” und „generiert” verschwindet

Was Creator beachten sollten

Für KI-Video-Creator

AnkündigungAuswirkung
DLSS 4.5Besseres Verständnis von Frame-Interpolationstechniken
Neural ShadersHöherwertige Trainingsdaten für zukünftige KI-Modelle
Vera RubinSchnellere, günstigere Cloud-KI-Videogenerierung

Für Content-Produzenten

AnkündigungAuswirkung
G-SYNC PulsarBesseres Monitoring für Videobearbeitung
Neural ShadersVerbesserungen bei virtueller Echtzeit-Produktion
RTX 5090Leistungsstärkere lokale KI-Workflows

KI-Videotools entdecken

Vergleichen Sie die führenden KI-Videogeneratoren und finden Sie das richtige Tool für Ihren Workflow

Vergleiche ansehen →

RTX 5090: Die letzte Raster-GPU?

Die GeForce RTX 5090, die zusammen mit diesen Features angekündigt wurde, könnte einen Wendepunkt darstellen. Jensen Huang deutete an, dass sie „der Höhepunkt der traditionellen rasterbasierten GPUs” sein könnte – was nahelegt, dass zukünftige Generationen primär neurale Rendering-Geräte sein werden.

Vorerst bietet die RTX 5090:

  • Volle DLSS 4.5-Unterstützung mit 6-facher Multi-Frame-Generierung
  • RTX Neural Shaders
  • Verbesserte lokale KI-Inferenz für Tools wie ComfyUI
  • Bessere Leistung für KI-Video-Upscaling und -Enhancement

Zeitplan-Zusammenfassung

FeatureVerfügbarkeit
DLSS 4.5Verfügbar mit RTX 50 Serie
RTX Neural ShadersRollout im Jahr 2026
G-SYNC PulsarVerfügbar mit kompatiblen Monitoren
GeForce RTX 5090Launch Q1 2026
Vera Rubin NVL72Zweite Jahreshälfte 2026

Häufig gestellte Fragen

Was ist DLSS 4.5?

DLSS 4.5 ist NVIDIAs neueste Deep Learning Super Sampling-Technologie mit einem Transformer-Modell der zweiten Generation und 6-facher Multi-Frame-Generierung, die bis zu 5 KI-generierte Frames zwischen jedem gerenderten Frame einfügen kann.

Was sind RTX Neural Shaders?

RTX Neural Shaders verwenden KI, um Materialien und Beleuchtung in Echtzeit zu rendern und ersetzen traditionelle mathematische Annäherungen durch neuronale Netze, die auf realer Physik trainiert wurden. Das Ergebnis sind filmreife Visuals in Echtzeit-Anwendungen.

Wann wird Vera Rubin verfügbar sein?

Der Vera Rubin NVL72 KI-Supercomputer ist für die zweite Jahreshälfte 2026 geplant. Er verspricht 5-fach höhere Inferenzleistung und 10-fach niedrigere Kosten pro Token im Vergleich zur aktuellen Blackwell-Architektur.

Wie beeinflusst das die KI-Videogenerierung?

Diese Fortschritte beeinflussen KI-Video auf mehrere Arten: verbesserte Frame-Interpolationstechniken (DLSS 4.5), hochwertigere Trainingsdaten (Neural Shaders) und schnellere/günstigere Cloud-Inferenz (Vera Rubin) werden alle KI-Videotools zugutekommen.

Ist die RTX 5090 gut für KI-Videoerstellung?

Ja. Die RTX 5090 unterstützt DLSS 4.5, RTX Neural Shaders und verbesserte lokale KI-Inferenz. Sie ist besonders vorteilhaft für lokale KI-Workflows mit Tools wie ComfyUI und für KI-Video-Upscaling.

Quellen


Verwandte Artikel

War dieser Artikel hilfreich?