Meta entwickelt drei neue KI-Modelle: Bild-, Video- und Code-Generierung

Von GenMediaLab 5 Min. Lesezeit
Meta entwickelt neue KI-Modelle für Bild- und Videogenerierung

Wichtige Erkenntnisse

  • Meta entwickelt Bild-/Videogenerierungsmodell mit Codenamen 'Mango' für H1 2026
  • Code-fokussiertes LLM mit Codenamen 'Avocado' in Entwicklung mit gleichem Zeitrahmen
  • Meta Superintelligence Labs (MSL) berichtet von Durchbruch bei Weltmodell-Forschung
  • Neue Modelle werden direkt mit Google Veo, OpenAI Sora und Anthropic Claude konkurrieren
  • Chief AI Officer Alexandr Wang enthüllte Details in interner Q&A-Sitzung

Was geschah

Meta entwickelt Berichten zufolge drei neue Modelle für künstliche Intelligenz, die die Präsenz des Unternehmens im Bereich generativer KI erheblich erweitern könnten, wie aus einem Bericht des Wall Street Journal vom 19. Dezember 2025 hervorgeht.

Die Modelle werden von Meta Superintelligence Labs (MSL) entwickelt, einer spezialisierten KI-Abteilung, die Anfang dieses Jahres gegründet wurde. Während einer internen Q&A-Sitzung enthüllte MSL-Leiter und Chief AI Officer Alexandr Wang Details über die ambitionierte KI-Entwicklungs-Roadmap des Unternehmens.

Die drei Modelle in Entwicklung

1. “Mango” — Bild- und Videogenerierung

Die bedeutendste Ankündigung ist ein Bild- und Videogenerierungsmodell mit dem Codenamen “Mango”. Dieses Modell soll in der ersten Hälfte 2026 starten und wird direkt konkurrieren mit:

  • Googles Imagen und Veo
  • OpenAIs ChatGPT Image und Sora
  • Runways Gen-4.5
ModellCodenameFokusErwarteter Release
Bild/VideoMangoVisuelle GenerierungH1 2026
Code-LLMAvocadoCode-GenerierungH1 2026
WeltmodellePhysikalische SimulationForschungsphase

2. “Avocado” — Code-fokussiertes LLM

Meta entwickelt auch ein textbasiertes Large Language Model (LLM) mit dem Codenamen “Avocado” mit demselben vorläufigen Release-Zeitrahmen H1 2026. Dieses Modell konzentriert sich speziell auf Code-Assistenz und tritt in einen zunehmend wettbewerbsintensiven Markt ein, der umfasst:

  • Googles Antigravity
  • OpenAIs Codex
  • Anthropics Claude Code

Der Fokus auf Code deutet darauf hin, dass Meta sich möglicherweise darauf vorbereitet, entweder eine eigene integrierte Entwicklungsumgebung (IDE) zu entwickeln oder Werkzeuge zu erstellen, die sich in bestehende IDEs integrieren lassen.

3. Weltmodelle — Ein Weg zur AGI

Vielleicht die technisch ambitionierteste Entwicklung ist der berichtete Durchbruch von MSL in der Weltmodell-Forschung.

Weltmodelle sind KI-Systeme, die:

  • Über die reale Welt anhand visueller Eingaben lernen können
  • Als interne Simulatoren fungieren
  • Die physikalischen Konsequenzen von Handlungen vorhersagen, bevor sie diese ausführen

Diese Technologie gilt als entscheidender Schritt hin zur künstlichen allgemeinen Intelligenz (AGI) und ist besonders wichtig für Robotik-Anwendungen—sowohl humanoide als auch nicht-humanoide Allzweckroboter.

Warum dies wichtig ist

Wettbewerb intensiviert sich

Metas Einstieg in die Bild- und Videogenerierung kommt zu einem entscheidenden Moment in der KI-Industrie:

  • OpenAI hat kürzlich Sora 2 gestartet und einen 1-Milliarden-Dollar-Deal mit Disney unterzeichnet
  • Google hat Veo 2 und Imagen 3 früher diesen Monat gestartet
  • Adobe ist gerade eine Partnerschaft mit Runway für professionelle KI-Video-Workflows eingegangen
  • Microsoft investiert weiterhin stark in KI durch seine Partnerschaft mit OpenAI

Dass Meta mit dedizierten Modellen in diesen Bereich eintritt, deutet darauf hin, dass das Unternehmen glaubt, dass es noch erhebliche Marktanteile zu erobern gibt, obwohl es später auf den Markt kommt als die Konkurrenten.

Der Social-Media-Vorteil

Im Gegensatz zu reinen KI-Unternehmen hat Meta sofortige Distribution durch seine Plattformen:

  • Facebook (3+ Milliarden Nutzer)
  • Instagram (2+ Milliarden Nutzer)
  • WhatsApp (2+ Milliarden Nutzer)
  • Threads

Wenn Mango sich direkt in diese Plattformen integriert, könnte Meta sofort KI-Bild- und Videogenerierung für Milliarden von Nutzern zugänglich machen—eine Größenordnung, die kein Wettbewerber erreichen kann.

Open-Source-Strategie

Meta hat historisch einen Open-Source-Ansatz bei seinen KI-Modellen verfolgt (LLaMA, Segment Anything). Ob Mango und Avocado diesem Muster folgen, könnte das breitere KI-Ökosystem erheblich beeinflussen.

Bleiben Sie über KI-Video-Nachrichten informiert

Erhalten Sie die neuesten Entwicklungen in der KI-Video- und Bildgenerierungstechnologie

Alle Nachrichten durchsuchen →

Das große Bild

Die Rolle von Superintelligence Labs

Die Gründung von Meta Superintelligence Labs Anfang dieses Jahres signalisierte das ernsthafte Engagement des Unternehmens für fortgeschrittene KI-Forschung. Mit diesen drei Modellen in Entwicklung adressiert MSL:

  1. Kreative KI (Mango) — Konkurrenz zu Verbraucher- und Enterprise-Video/Bild-Tools
  2. Entwickler-KI (Avocado) — Zielt auf den lukrativen Markt für Enterprise-Code-Assistenz
  3. Grundlagen-KI (Weltmodelle) — Verfolgt längerfristige AGI-Forschung

Zeitliche Überlegungen

Das H1 2026-Ziel für Mango und Avocado gibt Meta etwa 6 Monate Entwicklungszeit. Angesichts des rasanten Tempos der KI-Fortschritte wird Meta sicherstellen müssen, dass diese Modelle überzeugende Vorteile gegenüber etablierten Wettbewerbern bieten, um Markttraktion zu gewinnen.

Was wir beobachten: Ob Metas Modelle wie LLaMA Open Source sein werden, und wie sie sich in Metas bestehende soziale Plattformen integrieren werden.


Quellen

Verwandte Artikel auf GenMediaLab

War dieser Artikel hilfreich?