Beste KI-Videogeneratoren 2026
Vollständiger Vergleich der besten KI-Videogenerierungstools inklusive Luma, HeyGen und Synthesia.
Artikel lesen →
Luma hat am 5. März 2026 Luma Agents vorgestellt – eine Plattform, die ein kreatives Briefing entgegennimmt und die gesamte Produktionspipeline für Text, Bild, Video und Audio abwickelt, ohne dass Teams zwischen verschiedenen Tools wechseln müssen. Die Agenten werden von Uni-1 angetrieben, dem ersten Modell in Lumas neuer Unified-Intelligence-Architektur, und sind bereits bei Publicis Groupe, Serviceplan, Adidas und Mazda im Einsatz.
Luma Agents ersetzen den typischen Multi-Tool-KI-Workflow – bei dem kreative Teams separate Modelle für Text, Bildgenerierung, Videoproduktion und Audio jonglieren – durch ein einziges koordiniertes System. Sie liefern ein Briefing und optionale Referenz-Assets, und der Agent übernimmt Planung, Generierung, Bewertung und Auslieferung über alle Modalitäten hinweg.
Der entscheidende Unterschied ist der persistente Kontext. Aktuelle KI-Workflows erfordern, dass Teams den Kontext manuell zwischen Tools weitergeben und den Zustand bei jedem Schritt neu aufbauen. Luma Agents halten den gemeinsamen Kontext über das gesamte Projekt hinweg – vom ersten Briefing bis zu jeder Iteration und Überarbeitung.
„Kreative Arbeit hat nie an Ambition gemangelt – es fehlte an Ausführungskapazität“, sagte Amit Jain, CEO und Mitgründer von Luma. „Kreative Teams sollten ihre Zeit nicht mit der Orchestrierung von Tools verbringen. Sie sollten sie mit dem Kreieren verbringen.“
Uni-1 ist das Foundation-Modell hinter Luma Agents und steht für Lumas architektonische Wette gegen den branchenüblichen Ansatz, separate Spezialmodelle aneinanderzuketten.
Es handelt sich um einen decoder-only autoregressiven Transformer, der in einem gemeinsamen Token-Raum arbeitet, in dem Sprach- und Bild-Tokens nativ verschachtelt sind. Das bedeutet, das Modell kann in Sprache schlussfolgern und in Pixeln rendern – innerhalb desselben Forward-Passes, ohne Zwischenübergabe zwischen Text- und Bildmodell.
Luma nennt dies „Unified Intelligence“ und zieht eine Analogie zum menschlichen Architekten, der ein Gebäude skizziert: Er simuliert gleichzeitig Struktur, Licht, räumliche Dynamik und gelebte Erfahrung. Schlussfolgern und Kreieren geschehen gemeinsam, nicht nacheinander.
Sprach- und Bild-Tokens verschachteln sich nativ und ermöglichen Schlussfolgern und Rendering in einem einzigen Forward-Pass
Konfigurierbare Chain-of-Thought-Tiefe lässt das System komplexe Briefings planen, bevor es Ausgaben generiert
Agenten bewerten ihre eigenen Ausgaben am ursprünglichen Briefing und regenerieren, wenn Ergebnisse nicht genügen
Hält den Zustand über Assets, Mitarbeiter und Iterationen während des gesamten Projektlebenszyklus
Während Uni-1 Planung und Reasoning übernimmt, stützt sich produktionsreife Ausgabe auf die Weiterleitung von Teilaufgaben an spezialisierte externe Modelle. Luma Agents wählen und koordinieren diese Modelle automatisch nach Aufgabenanforderungen:
Externe Modelle, die von Luma Agents koordiniert werden
| Model | Provider | Role |
|---|---|---|
| Ray3.14 | Luma AI | Primäre Videogenerierung (natives 1080p, 4x Geschwindigkeit) |
| Veo 3 | Sekundäres Video mit nativer Audiogenerierung | |
| Sora 2 | OpenAI | Videogenerierung |
| Kling 2.6 | Kuaishou | Videogenerierung |
| Seedream | ByteDance | Bildgenerierung für Storyboard-Frames |
| GPT Image 1.5 | OpenAI | Bildgenerierung und -bearbeitung |
| ElevenLabs | ElevenLabs | Sprach- und Audiosynthese |
| Nano Banana Pro | Leichtgewichtige Inferenzaufgaben |
Die Orchestrierungsschicht wählt Modelle automatisch aus, bewertet Ausgaben am ursprünglichen Briefing und iteriert zur Verfeinerung, wenn Ergebnisse die Qualitätsanforderungen nicht erfüllen. Der API-Parameter reasoning_effort steuert, wie viel Planungsrechenleistung Uni-1 vor dem Start der Generierung nutzt – höherer Aufwand bedeutet weniger verschwendete Generierungszyklen bei komplexen Briefings.
Luma startet keinen breiten Consumer-Launch. Der Zugang erfolgt per API mit schrittweisem Rollout, und die ersten Kunden sind Agentur-große Unternehmen:
In einer Demonstration zeigte Jain, wie ein 200-Wörter-Briefing und ein Produktbild (ein Lippenstift) das System dazu brachten, Kampagnenvarianten zu generieren – inklusive Standortvorschlägen, Modellauswahl, Farbschemata, geskripteten Videoclips und Voiceover. In einem anderen Fall verwandelten Luma Agents eine 15-Millionen-Dollar-Jahreswerbekampagne einer Marke in lokalisierte Multi-Market-Anzeigen in 40 Stunden für unter 20.000 Dollar.
Luma schloss im November 2025 eine Series C über 900 Millionen Dollar ab, unterstützt von Humain (Saudi-PIF-Tochter), Andreessen Horowitz, AWS, AMD Ventures und Nvidia. Die Finanzierung unterstützt Project Halo, einen 2-GW-Rechen-Supercluster in Saudi-Arabien, dessen Einsatz in diesem Quartal erwartet wird.
Luma Agents sind über bestehende Dream-Machine-Abonnementstufen mit unterschiedlichen Nutzungskontingenten verfügbar:
Luma Agents Preisstufen (20 % Ersparnis bei jährlicher Abrechnung)
| Plan | Price | Agent Usage | Target |
|---|---|---|---|
| Plus | $30/month | Basis-Kontingent | Einzelne Kreative |
| Pro | $90/month | 4x Agent-Nutzung | Freelancer und kleine Teams |
| Ultra | $300/month | 15x Agent-Nutzung | Studios und Agenturen |
| Enterprise | Custom | Custom | Vertrieb kontaktieren |
Alle Pläne beinhalten kostenlose Testguthaben. Die API ist öffentlich zugänglich, wobei Luma das Onboarding drosselt, um Kapazitätsprobleme zu vermeiden.
Der architektonische Ansatz ist vielversprechend, aber es gibt offene Fragen, die es zu verfolgen lohnt:
Luma Agents stehen für einen Wandel von „hier sind 100 KI-Modelle, lerne sie zu prompten“ hin zur Übergabe ganzer kreativer Workflows an ein KI-System, das die Orchestrierung intern übernimmt. Für Agenturen, die hohe Mengen lokalisierter Inhalte über Märkte hinweg produzieren, ist das Angebot überzeugend: ein Briefing, ein System, mehrere Deliverables.
Der eigentliche Test ist, ob Uni-1s integriertes Reasoning merklich bessere Ergebnisse liefert als die manuelle Orchestrierung separater Best-in-Class-Modelle. Die Enterprise-Deployments bei Publicis und Serviceplan werden das deutlichste Signal sein.
Wenn die Selbstkritik-Schleife und der persistente Kontext wie demonstriert funktionieren, könnte das den Bedarf an spezialisierten KI-Prompt-Ingenieuren in kreativen Teams reduzieren. Für einzelne Kreative macht der Einstiegspreis von $30/month das Angebot zugänglich, wobei der Nutzen am stärksten für Teams ist, die Multi-Asset-Kampagnen über Kanäle und Märkte hinweg verwalten.
Luma Agents sind am 5. März 2026 gestartete KI-Kollaborateure, die End-to-End-Kreativarbeiten über Text, Bild, Video und Audio abwickeln. Sie werden von Uni-1 angetrieben, dem ersten Modell in Lumas Unified-Intelligence-Architektur, und können Projekte aus einem einzigen kreativen Briefing ausführen, ohne dass Teams zwischen separaten KI-Tools wechseln müssen.
Luma Agents sind über Dream-Machine-Abonnementpläne verfügbar, ab $30/month (Plus), $90/month (Pro) mit 4x Agent-Nutzung und $300/month (Ultra) mit 15x Agent-Nutzung. Enterprise-Preise sind individuell. Alle Pläne bieten 20 % Ersparnis bei jährlicher Abrechnung und beinhalten kostenlose Testguthaben.
Luma Agents koordinieren über 8 externe Modelle, darunter Lumas eigenes Ray3.14 für Video, Google Veo 3 für Video mit Audio, OpenAIs Sora 2 und GPT Image 1.5, ByteDances Seedream für Bilder, ElevenLabs für Sprachsynthese und Kuaishous Kling 2.6. Das System wählt automatisch das beste Modell für jede Teilaufgabe.
Uni-1 ist Lumas Foundation-Modell und das erste in seiner Unified-Intelligence-Familie. Es ist ein decoder-only autoregressiver Transformer, der Sprach- und Bild-Tokens in einem gemeinsamen Raum verschachtelt und so Schlussfolgern in Text und Rendering in Pixeln im selben Forward-Pass ermöglicht. Das unterscheidet sich von typischen KI-Systemen, die separate Modelle aneinanderketten.
Luma Agents sind bei den globalen Werbeagenturen Publicis Groupe und Serviceplan Group sowie bei Marken wie Adidas, Mazda und dem saudischen KI-Unternehmen Humain im Einsatz. In einem Fall verwandelten Luma Agents eine 15-Millionen-Dollar-Jahreswerbekampagne in 40 Stunden für unter 20.000 Dollar in lokalisierte Multi-Market-Anzeigen.
Anders als bei einzelnen KI-Tools (eins für Text, eins für Bilder, eins für Video) halten Luma Agents den Kontext über das gesamte Projekt hinweg und koordinieren automatisch mehrere Modelle. Das System bewertet und verfeinert eigene Ausgaben durch Selbstkritik und reduziert die manuelle Orchestrierungsarbeit, die kreative Teams derzeit beim Zusammenfügen von Ausgaben verschiedener KI-Dienste leisten.