Meta a Desenvolver Três Novos Modelos de IA: Geração de Imagens, Vídeo e Código

Por GenMediaLab 5 min de leitura
Meta a desenvolver novos modelos de IA para geração de imagens e vídeo

Pontos Principais

  • Meta a desenvolver modelo de geração de imagens/vídeo com nome de código 'Mango' para H1 2026
  • LLM focado em código com nome de código 'Avocado' em desenvolvimento com a mesma linha temporal
  • Meta Superintelligence Labs (MSL) reporta avanço revolucionário em investigação de modelos de mundo
  • Os novos modelos vão competir diretamente com Google Veo, OpenAI Sora e Anthropic Claude
  • O Diretor de IA Alexandr Wang revelou detalhes numa sessão interna de perguntas e respostas

O Que Aconteceu

A Meta está alegadamente a desenvolver três novos modelos de inteligência artificial que poderiam expandir significativamente a presença da empresa em IA generativa, de acordo com um relatório do Wall Street Journal publicado a 19 de dezembro de 2025.

Os modelos estão a ser construídos pelo Meta Superintelligence Labs (MSL), uma divisão especializada de IA criada no início deste ano. Durante uma sessão interna de perguntas e respostas, o chefe do MSL e Diretor de IA Alexandr Wang revelou detalhes sobre o ambicioso roteiro de desenvolvimento de IA da empresa.

Os Três Modelos em Desenvolvimento

1. “Mango” — Geração de Imagens e Vídeo

O anúncio mais significativo é um modelo de geração de imagens e vídeo com nome de código “Mango”. Espera-se que este modelo seja lançado na primeira metade de 2026 e competirá diretamente com:

  • Imagen e Veo da Google
  • ChatGPT Image e Sora da OpenAI
  • Gen-4.5 da Runway
ModeloNome de CódigoFocoLançamento Esperado
Imagem/VídeoMangoGeração visualH1 2026
LLM de CódigoAvocadoGeração de códigoH1 2026
Modelos de MundoSimulação físicaFase de investigação

2. “Avocado” — LLM Focado em Código

A Meta também está a desenvolver um modelo de linguagem grande (LLM) baseado em texto com nome de código “Avocado” com a mesma linha temporal tentativa de lançamento H1 2026. Este modelo foca-se especificamente em assistência de código, entrando num mercado cada vez mais competitivo que inclui:

  • Antigravity da Google
  • Codex da OpenAI
  • Claude Code da Anthropic

O foco em código sugere que a Meta poderá estar a preparar-se para desenvolver o seu próprio ambiente de desenvolvimento integrado (IDE) ou criar ferramentas que se integrem com IDEs existentes.

3. Modelos de Mundo — Um Caminho para a AGI

Talvez o desenvolvimento tecnicamente mais ambicioso seja o avanço reportado do MSL na investigação de modelos de mundo.

Os modelos de mundo são sistemas de IA que podem:

  • Aprender sobre o mundo real com base em entrada visual
  • Atuar como simuladores internos
  • Prever as consequências físicas das ações antes de as tomar

Esta tecnologia é considerada um passo crucial em direção à inteligência artificial geral (AGI) e é particularmente importante para aplicações de robótica—tanto robôs humanoides como não-humanoides de propósito geral.

Porque Isto Importa

A Competição Intensifica-se

A entrada da Meta na geração de imagens e vídeo chega num momento crucial da indústria de IA:

  • OpenAI lançou recentemente o Sora 2 e assinou um acordo de 1 bilião de dólares com a Disney
  • Google lançou o Veo 2 e o Imagen 3 no início deste mês
  • Adobe acabou de fazer parceria com a Runway para fluxos de trabalho profissionais de vídeo com IA
  • Microsoft continua a investir fortemente em IA através da sua parceria com a OpenAI

A Meta entrar neste espaço com modelos dedicados sugere que a empresa acredita que ainda há uma quota de mercado significativa a capturar, apesar de chegar mais tarde ao mercado do que os concorrentes.

A Vantagem das Redes Sociais

Ao contrário das empresas puramente de IA, a Meta tem distribuição imediata através das suas plataformas:

  • Facebook (3+ biliões de utilizadores)
  • Instagram (2+ biliões de utilizadores)
  • WhatsApp (2+ biliões de utilizadores)
  • Threads

Se o Mango se integrar diretamente nestas plataformas, a Meta poderia instantaneamente tornar a geração de imagens e vídeo com IA acessível a biliões de utilizadores—uma escala que nenhum concorrente consegue igualar.

Estratégia de Código Aberto

A Meta tem historicamente adotado uma abordagem de código aberto com os seus modelos de IA (LLaMA, Segment Anything). Se o Mango e o Avocado seguirem este padrão, isso poderia impactar significativamente o ecossistema mais amplo de IA.

Mantém-te Atualizado sobre Notícias de Vídeo com IA

Obtém os últimos desenvolvimentos em tecnologia de geração de vídeo e imagens com IA

Ver Todas as Notícias →

O Panorama Geral

O Papel do Superintelligence Labs

A criação do Meta Superintelligence Labs no início deste ano sinalizou o compromisso sério da empresa com a investigação avançada de IA. Com estes três modelos em desenvolvimento, o MSL está a abordar:

  1. IA Criativa (Mango) — Competindo com ferramentas de vídeo/imagem para consumidores e empresas
  2. IA para Programadores (Avocado) — Visando o lucrativo mercado de assistência de código empresarial
  3. IA Fundamental (Modelos de Mundo) — Perseguindo investigação de AGI a longo prazo

Considerações de Tempo

O objetivo de H1 2026 para Mango e Avocado dá à Meta aproximadamente 6 meses de tempo de desenvolvimento. Dado o rápido ritmo de avanço da IA, a Meta precisará de garantir que estes modelos ofereçam vantagens convincentes sobre os concorrentes estabelecidos para ganhar tração no mercado.

O que estamos a observar: Se os modelos da Meta serão de código aberto como o LLaMA, e como se integrarão com as plataformas sociais existentes da Meta.


Fontes

Relacionado no GenMediaLab

Este artigo foi útil?