Meta développe trois nouveaux modèles IA : Génération d'images, de vidéos et de code

Par GenMediaLab 5 min de lecture
Meta développe de nouveaux modèles IA pour la génération d'images et de vidéos

Points Clés

  • Meta développe un modèle de génération d'images/vidéos nommé 'Mango' prévu pour le S1 2026
  • Un LLM axé sur le code nommé 'Avocado' en développement avec le même calendrier
  • Les Meta Superintelligence Labs (MSL) annoncent une percée dans la recherche sur les modèles du monde
  • Les nouveaux modèles concurrenceront directement Google Veo, OpenAI Sora et Anthropic Claude
  • Le directeur IA Alexandr Wang a révélé les détails lors d'une session Q&A interne

Ce qui s’est passé

Meta développerait trois nouveaux modèles d’intelligence artificielle qui pourraient significativement étendre la présence de l’entreprise dans l’IA générative, selon un rapport du Wall Street Journal publié le 19 décembre 2025.

Les modèles sont construits par les Meta Superintelligence Labs (MSL), une division IA spécialisée créée plus tôt cette année. Lors d’une session Q&A interne, le directeur des MSL et directeur IA Alexandr Wang a révélé les détails de la feuille de route ambitieuse de l’entreprise en matière de développement IA.

Les trois modèles en développement

1. “Mango” — Génération d’images et de vidéos

L’annonce la plus significative concerne un modèle de génération d’images et de vidéos nommé “Mango”. Ce modèle devrait être lancé au premier semestre 2026 et concurrencera directement :

  • Imagen et Veo de Google
  • ChatGPT Image et Sora d’OpenAI
  • Gen-4.5 de Runway
ModèleNom de codeFocusSortie prévue
Image/VidéoMangoGénération visuelleS1 2026
LLM CodeAvocadoGénération de codeS1 2026
Modèles du mondeSimulation physiquePhase de recherche

2. “Avocado” — LLM axé sur le code

Meta développe également un grand modèle de langage (LLM) basé sur le texte nommé “Avocado” avec le même calendrier tentatif du S1 2026. Ce modèle se concentre spécifiquement sur l’assistance au code, entrant sur un marché de plus en plus compétitif qui inclut :

  • Antigravity de Google
  • Codex d’OpenAI
  • Claude Code d’Anthropic

L’orientation code suggère que Meta pourrait préparer soit le développement de son propre environnement de développement intégré (IDE), soit la création d’outils s’intégrant aux IDE existants.

3. Modèles du monde — Une voie vers l’AGI

Le développement le plus techniquement ambitieux est peut-être la percée rapportée des MSL dans la recherche sur les modèles du monde.

Les modèles du monde sont des systèmes IA capables de :

  • Apprendre sur le monde réel à partir d’entrées visuelles
  • Agir comme simulateurs internes
  • Prédire les conséquences physiques des actions avant de les effectuer

Cette technologie est considérée comme une étape cruciale vers l’intelligence artificielle générale (AGI) et est particulièrement importante pour les applications robotiques — robots à usage général humanoïdes et non-humanoïdes.

Pourquoi c’est important

La concurrence s’intensifie

L’entrée de Meta dans la génération d’images et de vidéos arrive à un moment charnière pour l’industrie de l’IA :

  • OpenAI a récemment lancé Sora 2 et signé un accord d’un milliard de dollars avec Disney
  • Google a lancé Veo 2 et Imagen 3 plus tôt ce mois-ci
  • Adobe vient de s’associer avec Runway pour des workflows vidéo IA professionnels
  • Microsoft continue d’investir massivement dans l’IA via son partenariat avec OpenAI

L’entrée de Meta dans cet espace avec des modèles dédiés suggère que l’entreprise pense qu’il y a encore une part de marché significative à capturer, malgré une arrivée tardive par rapport aux concurrents.

L’avantage des réseaux sociaux

Contrairement aux entreprises d’IA pure, Meta a une distribution immédiate via ses plateformes :

  • Facebook (3+ milliards d’utilisateurs)
  • Instagram (2+ milliards d’utilisateurs)
  • WhatsApp (2+ milliards d’utilisateurs)
  • Threads

Si Mango s’intègre directement à ces plateformes, Meta pourrait instantanément rendre la génération d’images et de vidéos IA accessible à des milliards d’utilisateurs — une échelle qu’aucun concurrent ne peut égaler.

Stratégie open source

Meta a historiquement adopté une approche open source avec ses modèles IA (LLaMA, Segment Anything). Que Mango et Avocado suivent ce schéma pourrait significativement impacter l’écosystème IA plus large.

Restez informé sur l'actualité vidéo IA

Obtenez les derniers développements en technologie de génération vidéo et image IA

Parcourir les actualités →

Le tableau d’ensemble

Le rôle des Superintelligence Labs

La création des Meta Superintelligence Labs plus tôt cette année a signalé l’engagement sérieux de l’entreprise dans la recherche IA avancée. Avec ces trois modèles en développement, les MSL s’attaquent à :

  1. IA créative (Mango) — Concurrencer les outils vidéo/image grand public et entreprise
  2. IA développeur (Avocado) — Cibler le marché lucratif de l’assistance au code entreprise
  3. IA fondamentale (Modèles du monde) — Poursuivre la recherche AGI à plus long terme

Considérations de calendrier

L’objectif S1 2026 pour Mango et Avocado donne à Meta environ 6 mois de temps de développement. Étant donné le rythme rapide des avancées IA, Meta devra s’assurer que ces modèles offrent des avantages convaincants par rapport aux concurrents établis pour gagner en traction sur le marché.

Ce que nous surveillons : Si les modèles de Meta seront open source comme LLaMA, et comment ils s’intégreront aux plateformes sociales existantes de Meta.


Sources

Articles similaires sur GenMediaLab

Cet article vous a-t-il été utile ?