Meta a Desenvolver Três Novos Modelos de IA: Geração de Imagens, Vídeo e Código
Pontos Principais
- ✓ Meta a desenvolver modelo de geração de imagens/vídeo com nome de código 'Mango' para H1 2026
- ✓ LLM focado em código com nome de código 'Avocado' em desenvolvimento com a mesma linha temporal
- ✓ Meta Superintelligence Labs (MSL) reporta avanço revolucionário em investigação de modelos de mundo
- ✓ Os novos modelos vão competir diretamente com Google Veo, OpenAI Sora e Anthropic Claude
- ✓ O Diretor de IA Alexandr Wang revelou detalhes numa sessão interna de perguntas e respostas
O Que Aconteceu
A Meta está alegadamente a desenvolver três novos modelos de inteligência artificial que poderiam expandir significativamente a presença da empresa em IA generativa, de acordo com um relatório do Wall Street Journal publicado a 19 de dezembro de 2025.
Os modelos estão a ser construídos pelo Meta Superintelligence Labs (MSL), uma divisão especializada de IA criada no início deste ano. Durante uma sessão interna de perguntas e respostas, o chefe do MSL e Diretor de IA Alexandr Wang revelou detalhes sobre o ambicioso roteiro de desenvolvimento de IA da empresa.
Os Três Modelos em Desenvolvimento
1. “Mango” — Geração de Imagens e Vídeo
O anúncio mais significativo é um modelo de geração de imagens e vídeo com nome de código “Mango”. Espera-se que este modelo seja lançado na primeira metade de 2026 e competirá diretamente com:
- Imagen e Veo da Google
- ChatGPT Image e Sora da OpenAI
- Gen-4.5 da Runway
| Modelo | Nome de Código | Foco | Lançamento Esperado |
|---|---|---|---|
| Imagem/Vídeo | Mango | Geração visual | H1 2026 |
| LLM de Código | Avocado | Geração de código | H1 2026 |
| Modelos de Mundo | — | Simulação física | Fase de investigação |
2. “Avocado” — LLM Focado em Código
A Meta também está a desenvolver um modelo de linguagem grande (LLM) baseado em texto com nome de código “Avocado” com a mesma linha temporal tentativa de lançamento H1 2026. Este modelo foca-se especificamente em assistência de código, entrando num mercado cada vez mais competitivo que inclui:
- Antigravity da Google
- Codex da OpenAI
- Claude Code da Anthropic
O foco em código sugere que a Meta poderá estar a preparar-se para desenvolver o seu próprio ambiente de desenvolvimento integrado (IDE) ou criar ferramentas que se integrem com IDEs existentes.
3. Modelos de Mundo — Um Caminho para a AGI
Talvez o desenvolvimento tecnicamente mais ambicioso seja o avanço reportado do MSL na investigação de modelos de mundo.
Os modelos de mundo são sistemas de IA que podem:
- Aprender sobre o mundo real com base em entrada visual
- Atuar como simuladores internos
- Prever as consequências físicas das ações antes de as tomar
Esta tecnologia é considerada um passo crucial em direção à inteligência artificial geral (AGI) e é particularmente importante para aplicações de robótica—tanto robôs humanoides como não-humanoides de propósito geral.
Porque Isto Importa
A Competição Intensifica-se
A entrada da Meta na geração de imagens e vídeo chega num momento crucial da indústria de IA:
- OpenAI lançou recentemente o Sora 2 e assinou um acordo de 1 bilião de dólares com a Disney
- Google lançou o Veo 2 e o Imagen 3 no início deste mês
- Adobe acabou de fazer parceria com a Runway para fluxos de trabalho profissionais de vídeo com IA
- Microsoft continua a investir fortemente em IA através da sua parceria com a OpenAI
A Meta entrar neste espaço com modelos dedicados sugere que a empresa acredita que ainda há uma quota de mercado significativa a capturar, apesar de chegar mais tarde ao mercado do que os concorrentes.
A Vantagem das Redes Sociais
Ao contrário das empresas puramente de IA, a Meta tem distribuição imediata através das suas plataformas:
- Facebook (3+ biliões de utilizadores)
- Instagram (2+ biliões de utilizadores)
- WhatsApp (2+ biliões de utilizadores)
- Threads
Se o Mango se integrar diretamente nestas plataformas, a Meta poderia instantaneamente tornar a geração de imagens e vídeo com IA acessível a biliões de utilizadores—uma escala que nenhum concorrente consegue igualar.
Estratégia de Código Aberto
A Meta tem historicamente adotado uma abordagem de código aberto com os seus modelos de IA (LLaMA, Segment Anything). Se o Mango e o Avocado seguirem este padrão, isso poderia impactar significativamente o ecossistema mais amplo de IA.
Mantém-te Atualizado sobre Notícias de Vídeo com IA
Obtém os últimos desenvolvimentos em tecnologia de geração de vídeo e imagens com IA
Ver Todas as Notícias →O Panorama Geral
O Papel do Superintelligence Labs
A criação do Meta Superintelligence Labs no início deste ano sinalizou o compromisso sério da empresa com a investigação avançada de IA. Com estes três modelos em desenvolvimento, o MSL está a abordar:
- IA Criativa (Mango) — Competindo com ferramentas de vídeo/imagem para consumidores e empresas
- IA para Programadores (Avocado) — Visando o lucrativo mercado de assistência de código empresarial
- IA Fundamental (Modelos de Mundo) — Perseguindo investigação de AGI a longo prazo
Considerações de Tempo
O objetivo de H1 2026 para Mango e Avocado dá à Meta aproximadamente 6 meses de tempo de desenvolvimento. Dado o rápido ritmo de avanço da IA, a Meta precisará de garantir que estes modelos ofereçam vantagens convincentes sobre os concorrentes estabelecidos para ganhar tração no mercado.
O que estamos a observar: Se os modelos da Meta serão de código aberto como o LLaMA, e como se integrarão com as plataformas sociais existentes da Meta.
Fontes
- The Wall Street Journal: Meta Developing New AI Image and Video Model
- Gadgets 360: Meta Reportedly Building Three New Generative AI Models