Meta가 세 가지 새로운 AI 모델 개발 중: 이미지, 비디오, 코딩 생성
핵심 요약
- ✓ Meta가 2026년 상반기를 목표로 이미지/비디오 생성 모델 코드명 'Mango' 개발 중
- ✓ 동일한 타임라인으로 코딩 중심 LLM 코드명 'Avocado' 개발 중
- ✓ Meta Superintelligence Labs(MSL)가 월드 모델 연구에서 획기적 발전 보고
- ✓ 새로운 모델이 Google Veo, OpenAI Sora, Anthropic Claude와 직접 경쟁할 예정
- ✓ 수석 AI 책임자 Alexandr Wang이 내부 Q&A 세션에서 세부 사항 공개
무슨 일이 일어났나
Meta는 회사의 생성형 AI 존재를 크게 확장할 수 있는 세 가지 새로운 인공지능 모델을 개발 중인 것으로 보고되었습니다. 2025년 12월 19일에 발행된 Wall Street Journal 보고서에 따르면 그렇습니다.
모델은 올해 초에 만들어진 전문 AI 부서인 **Meta Superintelligence Labs(MSL)**에서 구축되고 있습니다. 내부 Q&A 세션 동안 MSL 책임자이자 수석 AI 책임자 Alexandr Wang은 회사의 야심찬 AI 개발 로드맵에 대한 세부 사항을 공개했습니다.
개발 중인 세 가지 모델
1. “Mango” — 이미지 및 비디오 생성
가장 중요한 발표는 코드명 **“Mango”**인 이미지 및 비디오 생성 모델입니다. 이 모델은 2026년 상반기에 출시될 예정이며 다음과 직접 경쟁할 것입니다:
- Google의 Imagen 및 Veo
- OpenAI의 ChatGPT Image 및 Sora
- Runway의 Gen-4.5
| 모델 | 코드명 | 포커스 | 예상 출시 |
|---|---|---|---|
| 이미지/비디오 | Mango | 비주얼 생성 | 2026년 상반기 |
| 코딩 LLM | Avocado | 코드 생성 | 2026년 상반기 |
| 월드 모델 | — | 물리 시뮬레이션 | 연구 단계 |
2. “Avocado” — 코딩 중심 LLM
Meta는 또한 동일한 잠정 2026년 상반기 출시 타임라인으로 코드명 **“Avocado”**인 텍스트 기반 대규모 언어 모델(LLM)을 개발 중입니다. 이 모델은 특히 코딩 지원에 초점을 맞추며, 다음을 포함하는 점점 더 경쟁적인 시장에 진입합니다:
- Google의 Antigravity
- OpenAI의 Codex
- Anthropic의 Claude Code
코딩 포커스는 Meta가 자신의 통합 개발 환경(IDE)을 개발하거나 기존 IDE와 통합되는 도구를 만들 준비를 하고 있을 수 있음을 시사합니다.
3. 월드 모델 — AGI로의 경로
아마도 가장 기술적으로 야심찬 개발은 MSL의 월드 모델 연구에서 보고된 획기적 발전입니다.
월드 모델은 다음을 할 수 있는 AI 시스템입니다:
- 비주얼 입력을 기반으로 실제 세계에 대해 학습
- 내부 시뮬레이터로 작동
- 행동을 취하기 전에 행동의 물리적 결과를 예측
이 기술은 **인공 일반 지능(AGI)**으로 가는 중요한 디딤돌로 간주되며 휴머노이드 및 비휴머노이드 범용 로봇 모두를 위한 로봇 공학 응용에 특히 중요합니다.
이것이 중요한 이유
경쟁 심화
Meta의 이미지 및 비디오 생성 진입은 AI 업계에서 중요한 순간에 발생합니다:
- OpenAI는 최근 Sora 2를 출시하고 Disney와 10억 달러 거래를 체결했습니다
- Google은 이번 달 초 Veo 2와 Imagen 3를 출시했습니다
- Adobe는 전문 AI 비디오 워크플로우를 위해 Runway와 파트너십을 맺었습니다
- Microsoft는 OpenAI 파트너십을 통해 AI에 계속 큰 투자를 하고 있습니다
Meta가 전용 모델로 이 공간에 진입하는 것은 경쟁사보다 시장에 늦었음에도 불구하고 여전히 상당한 시장 점유율을 확보할 수 있다고 회사가 믿고 있음을 시사합니다.
소셜 미디어 이점
순수 AI 회사와 달리, Meta는 플랫폼을 통해 즉각적인 배포를 가지고 있습니다:
- Facebook (30억+ 사용자)
- Instagram (20억+ 사용자)
- WhatsApp (20억+ 사용자)
- Threads
Mango가 이러한 플랫폼에 직접 통합되면, Meta는 즉시 수십억 명의 사용자에게 AI 이미지 및 비디오 생성을 접근 가능하게 만들 수 있습니다—어떤 경쟁사도 맞출 수 없는 규모입니다.
오픈 소스 전략
Meta는 역사적으로 AI 모델(LLaMA, Segment Anything)에 대해 오픈 소스 접근 방식을 취해왔습니다. Mango와 Avocado가 이 패턴을 따를지 여부는 더 넓은 AI 생태계에 상당한 영향을 미칠 수 있습니다.
더 큰 그림
Superintelligence Labs의 역할
올해 초 Meta Superintelligence Labs의 생성은 회사의 고급 AI 연구에 대한 진지한 약속을 신호했습니다. 이 세 가지 모델을 개발하면서 MSL은 다음을 다루고 있습니다:
- 창작 AI (Mango) — 소비자 및 엔터프라이즈 비디오/이미지 도구와 경쟁
- 개발자 AI (Avocado) — 수익성 높은 엔터프라이즈 코딩 지원 시장 타겟팅
- 기초 AI (월드 모델) — 장기 AGI 연구 추구
타임라인 고려 사항
Mango와 Avocado에 대한 2026년 상반기 목표는 Meta에게 약 6개월의 개발 시간을 제공합니다. AI 발전의 빠른 속도를 고려할 때, Meta는 시장 추진력을 얻기 위해 이러한 모델이 확립된 경쟁사보다 매력적인 이점을 제공하는지 확인해야 합니다.
우리가 주시하는 것: Meta의 모델이 LLaMA처럼 오픈 소스가 될지, 그리고 Meta의 기존 소셜 플랫폼과 어떻게 통합될지 여부입니다.
출처
- The Wall Street Journal: Meta Developing New AI Image and Video Model
- Gadgets 360: Meta Reportedly Building Three New Generative AI Models