Migliori generatori video IA 2026
Confronto completo dei migliori strumenti di generazione video IA tra cui Luma, HeyGen e Synthesia.
Leggi Articolo →
Luma ha lanciato Luma Agents il 5 marzo 2026: una piattaforma che riceve un brief creativo e gestisce l’intera pipeline produttiva su testo, immagini, video e audio senza che i team debbano passare da uno strumento all’altro. Gli agenti sono alimentati da Uni-1, il primo modello nell’architettura Unified Intelligence di Luma, e sono già in uso presso Publicis Groupe, Serviceplan, Adidas e Mazda.
I Luma Agents sostituiscono il tipico flusso di lavoro multi-tool: invece di far passare i team creativi da modelli separati per scrittura, generazione immagini, produzione video e audio, offrono un unico sistema coordinato. Fornisci un brief e asset di riferimento opzionali, e l’agente gestisce pianificazione, generazione, valutazione e consegna su tutte le modalità.
Il differenziatore chiave è il contesto persistente. I flussi attuali richiedono di passare manualmente il contesto tra strumenti, ricostruendo lo stato a ogni passo. I Luma Agents mantengono un contesto condiviso per l’intero progetto, dal brief iniziale fino a ogni iterazione e revisione.
«Il lavoro creativo non ha mai mancato di ambizione, ma di capacità esecutiva», ha dichiarato Amit Jain, CEO e co-fondatore di Luma. «I team creativi non dovrebbero passare il tempo a orchestrare strumenti. Dovrebbero passarlo a creare.»
Uni-1 è il modello fondante dietro i Luma Agents e rappresenta la scommessa architetturale di Luma rispetto all’approccio standard del settore di concatenare modelli specializzati separati.
È un trasformatore autoregressivo decoder-only che opera su uno spazio di token condiviso dove si intercalano nativamente token linguistici e visivi. Il modello può quindi ragionare in linguaggio e renderizzare in pixel nello stesso forward pass, senza passaggi intermedi tra un modello di testo e uno di immagini.
Luma definisce questo approccio “Unified Intelligence” e lo paragona a come un architetto schizza un edificio: simula contemporaneamente struttura, luce, dinamiche spaziali ed esperienza vissuta. Ragionamento e creazione avvengono insieme, non in sequenza.
Token linguistici e visivi si intercalano nativamente, consentendo ragionamento e rendering in un singolo forward pass
La profondità della chain-of-thought configurabile permette al sistema di pianificare brief complessi prima di generare qualsiasi output
Gli agenti valutano i propri output rispetto al brief originale e rigenerano quando i risultati non sono sufficienti
Mantiene lo stato tra asset, collaboratori e iterazioni per l'intero ciclo di vita del progetto
Mentre Uni-1 gestisce pianificazione e ragionamento, l’output di qualità produttiva dipende dall’invio dei sottocompiti a modelli esterni specializzati. I Luma Agents selezionano e coordinano automaticamente questi modelli in base ai requisiti del task:
Modelli esterni coordinati dai Luma Agents
| Model | Provider | Role |
|---|---|---|
| Ray3.14 | Luma AI | Generazione video principale (1080p nativo, 4x velocità) |
| Veo 3 | Video secondario con generazione audio nativa | |
| Sora 2 | OpenAI | Generazione video |
| Kling 2.6 | Kuaishou | Generazione video |
| Seedream | ByteDance | Generazione immagini per frame storyboard |
| GPT Image 1.5 | OpenAI | Generazione e modifica immagini |
| ElevenLabs | ElevenLabs | Sintesi vocale e audio |
| Nano Banana Pro | Task di inferenza leggeri |
Il layer di orchestrazione seleziona i modelli automaticamente, valuta gli output rispetto al brief originale e rientra nel ciclo per affinamenti quando i risultati non raggiungono le soglie di qualità. Il parametro API reasoning_effort controlla quanta potenza di pianificazione usa Uni-1 prima di avviare la generazione: sforzo maggiore significa meno cicli di generazione sprecati su brief complessi.
Luma non sta facendo un lancio consumer ampio. L’accesso avviene via API con rollout graduale, e i primi clienti sono imprese su scala agency:
In una dimostrazione, Jain ha mostrato come un brief di 200 parole e un’immagine di prodotto (un tubetto di rossetto) abbiano portato il sistema a generare varianti di campagna con suggerimenti di location, selezione modelli, palette colori, clip video scriptate e voiceover. In un altro caso, i Luma Agents hanno trasformato una campagna pubblicitaria annuale da 15 milioni di dollari in spot localizzati multi-mercato in 40 ore per meno di 20.000 dollari.
Luma ha chiuso una Serie C da 900 milioni di dollari nel novembre 2025, sostenuta da Humain (sussidiaria del PIF saudita), Andreessen Horowitz, AWS, AMD Ventures e Nvidia. Il finanziamento supporta Project Halo, un supercluster di calcolo da 2GW in Arabia Saudita che dovrebbe iniziare il deployment in questo trimestre.
I Luma Agents sono disponibili tramite i livelli di abbonamento Dream Machine esistenti con diverse allocazioni d’uso:
Fasce di prezzo Luma Agents (20% di risparmio con fatturazione annuale)
| Plan | Price | Agent Usage | Target |
|---|---|---|---|
| Plus | $30/month | Allocazione base | Creatori singoli |
| Pro | $90/month | 4x utilizzo agenti | Freelancer e piccoli team |
| Ultra | $300/month | 15x utilizzo agenti | Studi e agency |
| Enterprise | Custom | Custom | Contatta vendite |
Tutti i piani includono crediti di prova gratuiti. L’API è accessibile pubblicamente, anche se Luma sta limitando l’onboarding per evitare problemi di capacità.
L’approccio architetturale è promettente, ma restano domande aperte da seguire:
I Luma Agents rappresentano un passaggio da «ecco 100 modelli IA, impara a fare prompt» al delegare interi flussi creativi a un sistema IA che gestisce l’orchestrazione internamente. Per le agency che producono grandi volumi di contenuti localizzati tra mercati, la proposta è convincente: un brief, un sistema, molteplici deliverable.
La vera prova è se il ragionamento integrato di Uni-1 dia risultati significativamente migliori rispetto all’orchestrare manualmente modelli best-in-class separati. I deployment enterprise con Publicis e Serviceplan saranno il segnale più chiaro.
Se il ciclo di auto-critica e il contesto persistente funzionano come mostrato, potrebbe ridurre il bisogno di prompt engineer IA specializzati nei team creativi. Per i creatori singoli, il punto d’ingresso a $30/mese lo rende accessibile, anche se la value proposition è più forte per i team che gestiscono campagne multi-asset su canali e mercati.
I Luma Agents sono collaboratori IA lanciati il 5 marzo 2026 che gestiscono lavoro creativo end-to-end su testo, immagini, video e audio. Sono alimentati da Uni-1, il primo modello nell'architettura Unified Intelligence di Luma, e possono eseguire progetti da un singolo brief creativo senza che i team debbano passare tra strumenti IA separati.
I Luma Agents sono disponibili tramite i piani di abbonamento Dream Machine a partire da $30/mese (Plus), $90/mese (Pro) con 4x utilizzo agenti e $300/mese (Ultra) con 15x utilizzo agenti. I prezzi Enterprise sono personalizzati. Tutti i piani offrono il 20% di risparmio con fatturazione annuale e includono crediti di prova gratuiti.
I Luma Agents coordinano oltre 8 modelli esterni tra cui Ray3.14 di Luma per il video, Google Veo 3 per video con audio, Sora 2 e GPT Image 1.5 di OpenAI, Seedream di ByteDance per le immagini, ElevenLabs per la sintesi vocale e Kling 2.6 di Kuaishou. Il sistema seleziona automaticamente il modello migliore per ogni sottocompito.
Uni-1 è il modello fondante di Luma e il primo della famiglia Unified Intelligence. È un trasformatore autoregressivo decoder-only che intercala token linguistici e visivi in uno spazio condiviso, permettendo di ragionare in testo e renderizzare in pixel nello stesso forward pass. Si differenzia dai sistemi IA tipici che concatenano modelli separati.
I Luma Agents sono in uso presso le agency pubblicitarie globali Publicis Groupe e Serviceplan Group, oltre che presso brand come Adidas, Mazda e l'azienda saudita di IA Humain. In un caso, i Luma Agents hanno trasformato una campagna pubblicitaria annuale da 15 milioni di dollari in spot localizzati multi-mercato in 40 ore per meno di 20.000 dollari.
A differenza dell'uso di strumenti IA singoli (uno per testo, uno per immagini, uno per video), i Luma Agents mantengono un contesto persistente per l'intero progetto e coordinano automaticamente più modelli. Il sistema valuta e affina i propri output tramite auto-critica, riducendo il lavoro di orchestrazione manuale che i team creativi affrontano quando assemblano output da diversi servizi IA.