2026年ベストAI動画ジェネレーター
Luma、HeyGen、Synthesiaを含むトップAI動画生成ツールの完全比較。
記事を読む →
Lumaは2026年3月5日、Luma Agentsをローンチした。クリエイティブブリーフを受け取り、テキスト・画像・動画・音声の全制作パイプラインを一貫して処理するプラットフォームで、チームが複数ツールを行き来する必要はない。エージェントはLumaの新アーキテクチャ「Unified Intelligence」の第一弾モデルUni-1で駆動され、すでにPublicis Groupe、Serviceplan、Adidas、Mazdaで導入されている。
Luma Agentsは、従来の複数ツールを使うAIワークフロー(ライティング用、画像生成用、動画制作用、音声用と別々のモデルを切り替える)を、単一の統合システムに置き換える。ブリーフと任意の参照アセットを渡すと、エージェントが企画・生成・評価・納品を全モダリティで一貫して処理する。
差別化の核は永続的なコンテキストだ。現状のAIワークフローでは、ツール間でコンテキストを手動で受け渡し、各ステップで状態を再構築する必要がある。Luma Agentsは、初期ブリーフから各イテレーション・リビジョンまで、プロジェクト全体で共有コンテキストを維持する。
LumaのCEO兼共同創業者アミット・ジェインはこう語る。「クリエイティブの課題は野心が足りないことではなく、実行力が足りないことだった。クリエイティブチームがツールのオーケストレーションに時間を費やすべきではない。創造に費やすべきだ。」
Uni-1はLuma Agentsの基盤モデルであり、業界標準の「専門モデルをチェーンでつなぐ」アプローチに対するLumaのアーキテクチャ的賭けを体現している。
共有トークン空間上で言語と画像トークンをネイティブにインターリーブする、デコーダー専用の自己回帰トランスフォーマーだ。つまり、テキストモデルと画像モデルの中間受け渡しなしに、同一のフォワードパス内で言語による推論とピクセルによるレンダリングが行える。
Lumaはこれを「Unified Intelligence」と呼び、建築家が建物をスケッチするように、構造・光・空間・体験を同時にシミュレートする例えを用いる。推論と創造が並行して起こり、順次ではない。
言語と画像トークンがネイティブにインターリーブされ、単一フォワードパスで推論とレンダリングを実現
設定可能な思考の連鎖深度により、出力前に複雑なブリーフの計画を立てられる
エージェントが自らの出力を元のブリーフと照合し、基準に達しない場合は再生成する
アセット、共同作業者、イテレーションをまたいでプロジェクト全体の状態を維持
Uni-1が企画と推論を担う一方、制作品質の出力は専門外部モデルへのサブタスク振り分けに依存する。Luma Agentsはタスク要件に応じてこれらのモデルを自動選択・調整する:
Luma Agentsが連携する外部モデル
| Model | Provider | Role |
|---|---|---|
| Ray3.14 | Luma AI | メイン動画生成(ネイティブ1080p、4倍速) |
| Veo 3 | ネイティブ音声生成を備えたサブ動画 | |
| Sora 2 | OpenAI | 動画生成 |
| Kling 2.6 | Kuaishou | 動画生成 |
| Seedream | ByteDance | ストーリーボードフレーム用画像生成 |
| GPT Image 1.5 | OpenAI | 画像生成・編集 |
| ElevenLabs | ElevenLabs | 音声・オーディオ合成 |
| Nano Banana Pro | 軽量推論タスク |
オーケストレーション層はモデルを自動選択し、元のブリーフと照合して出力を評価し、品質基準を満たさない場合は改善ループに戻す。APIパラメータreasoning_effortで、生成開始前にUni-1がどれだけ企画計算を行うかを制御できる。複雑なブリーフでは、努力度を上げるほど無駄な生成サイクルを減らせる。
Lumaは一般消費者向けの広範なローンチは行わない。アクセスはAPI経由で段階的に展開され、初期顧客はエージェンシースケールの企業だ:
デモでは、ジェインが200語のブリーフと製品画像(リップスティックのチューブ)から、ロケーション提案、モデル選定、カラースキーム、台本付き動画クリップ、ナレーションまで含むキャンペーン案を生成する様子を示した。別の事例では、Luma Agentsがブランドの年間$1,500万の広告キャンペーンを、40時間・$2万未満で複数市場向けローカライズ広告に変換した。
Lumaは2025年11月にHumain(サウジPIF子会社)、Andreessen Horowitz、AWS、AMD Ventures、Nvidiaが支援する$9億のシリーズCを調達。資金はサウジアラビアの2GWコンピュートスーパークラスター「Project Halo」の展開を支え、今四半期から導入が始まる見込み。
Luma Agentsは既存のDream Machineサブスクリプション階層で、利用量に応じた割り当てとともに提供される:
Luma Agents料金プラン(年払いで20%割引)
| Plan | Price | Agent Usage | Target |
|---|---|---|---|
| Plus | $30/month | 基本割り当て | 個人クリエイター |
| Pro | $90/month | 4倍のエージェント利用量 | フリーランサー・小規模チーム |
| Ultra | $300/month | 15倍のエージェント利用量 | スタジオ・エージェンシー |
| Enterprise | Custom | カスタム | 営業に問い合わせ |
全プランに無料トライアルクレジットが含まれる。APIは公開されているが、Lumaはキャパシティ問題を防ぐためオンボーディングを制限している。
アーキテクチャの方向性は有望だが、追跡すべき未解決の論点がある:
Luma Agentsは「100個のAIモデルを用意したからプロンプトを学べ」という姿勢から、オーケストレーションを内包するAIシステムにクリエイティブワークフロー全体を委譲する方向への転換を示している。複数市場で大量のローカライズコンテンツを制作するエージェンシーにとって、1つのブリーフと1つのシステムで複数の成果物を得られる訴求は魅力的だ。
本当の試金石は、Uni-1の統合推論が、手動で最良の専門モデルをオーケストレートするより有意に良い結果を出せるかどうかだ。PublicisとServiceplanでのエンタープライズ導入が、最も明確な指標となる。
自己批判ループと永続的コンテキストがデモ通りに機能すれば、クリエイティブチームにおける専門AIプロンプトエンジニアの必要性を減らせる可能性がある。個人クリエイターにとっては月額$30の参入障壁で手が届くが、価値提案が最も強いのは、チャネルや市場をまたいだマルチアセットキャンペーンを管理するチームだ。
Luma Agentsは2026年3月5日にローンチされたAIコラボレーターで、テキスト・画像・動画・音声のエンドツーエンドのクリエイティブ作業を処理する。LumaのUnified Intelligenceアーキテクチャの第一弾モデルUni-1で駆動され、単一のクリエイティブブリーフから、チームが複数AIツールを切り替えることなくプロジェクトを実行できる。
Luma AgentsはDream Machineのサブスクリプションプランで利用可能。Plus月額$30、Pro月額$90(エージェント利用量4倍)、Ultra月額$300(エージェント利用量15倍)から。エンタープライズはカスタム。全プランで年払い20%割引、無料トライアルクレジット付き。
Luma Agentsは動画用の自社Ray3.14、音声付き動画用のGoogle Veo 3、OpenAIのSora 2とGPT Image 1.5、画像用のByteDance Seedream、音声合成用のElevenLabs、KuaishouのKling 2.6など8以上の外部モデルを調整する。各サブタスクに最適なモデルを自動選択する。
Uni-1はLumaの基盤モデルで、Unified Intelligenceファミリーの第一弾。共有空間で言語と画像トークンをインターリーブするデコーダー専用の自己回帰トランスフォーマーで、同一フォワードパス内でテキストによる推論とピクセルによるレンダリングが可能。専門モデルをチェーンでつなぐ一般的なAIシステムとは異なる。
Luma Agentsはグローバル広告代理店のPublicis GroupeとServiceplan Group、およびAdidas、Mazda、サウジAI企業Humainなどのブランドで導入されている。事例の一つでは、Luma Agentsが年間$1,500万の広告キャンペーンを40時間・$2万未満で複数市場向けローカライズ広告に変換した。
テキスト用・画像用・動画用と個別のAIツールを使うのとは異なり、Luma Agentsはプロジェクト全体で永続的なコンテキストを維持し、複数モデルを自動調整する。自己批判を通じて出力を評価・改善するため、複数AIサービスの出力をつなぎ合わせる際の手動オーケストレーション作業を減らせる。