Grok-Skandal wird global: Malaysia, Frankreich und Indien ergreifen Maßnahmen gegen X

Von GenMediaLab 5 Min. Lesezeit
Globale Grok AI Kontroverse

Wichtige Erkenntnisse

  • Malaysia, Frankreich und Indien haben alle strafrechtliche Untersuchungen eingeleitet oder Antworten von X gefordert
  • xAI wies den Missbrauchsskandal mit nur drei Worten zurück: 'Lügen der Legacy-Medien'
  • Reuters dokumentierte 102 Missbrauchsversuche in nur 10 Minuten—Grok ermöglichte über 21 Fälle nicht einvernehmlicher Bilder
  • xAIs Versagen bei der Implementierung von Schutzmaßnahmen ermöglichte massenhaften digitalen sexuellen Missbrauch
  • Experten warnten xAI im August 2025 vor genau diesem Szenario—sie ignorierten die Warnungen

Die Geschichte bisher

Was als vereinzelte Berichte über KI-generierte sexualisierte Bilder auf X begann, hat sich nun zu einer globalen Krise für Elon Musks Plattform entwickelt.

Nach unserer ersten Berichterstattung über den Skandal am 3. Januar 2026 haben drei Regierungen Untersuchungen oder formelle Beschwerden gegen X angekündigt.

Regierungsreaktion

Malaysia leitet Untersuchung ein

Die malaysischen Behörden kündigten am Samstag an, dass sie vom Grok produzierte Bilder untersuchen, nachdem Beschwerden über KI-Missbrauch eingegangen waren. Das Kommunikationsministerium nannte Bedenken über:

  • Manipulation von Bildern von Frauen
  • Manipulation von Bildern von Minderjährigen
  • Produktion von “unanständigen, grob anstößigen oder anderweitig schädlichen Inhalten”

Frankreich meldet X bei Staatsanwälten

Französische Minister haben X offiziell bei Staatsanwälten und Regulierungsbehörden gemeldet und den KI-generierten Inhalt nach französischem Recht als “offensichtlich illegal” bezeichnet.

In ihrer Erklärung beschrieben Beamte die Bilder als “sexuellen und sexistischen” Inhalt, der gegen französische Vorschriften verstößt.

Indien fordert Antworten

Das indische IT-Ministerium schickte einen formellen Brief an die lokale X-Niederlassung und erklärte, dass die Plattform es versäumt hat, den Missbrauch von Grok zur Erzeugung und Verbreitung von obszönem und sexuell explizitem Inhalt zu verhindern.

xAIs Antwort: “Lügen der Legacy-Medien”

Als Reuters xAI um einen Kommentar zu ihrer Recherche über den Missbrauch kontaktierte, lautete die gesamte Antwort von xAI:

“Lügen der Legacy-Medien.”

Elon Musk schien sich über die Kontroverse auf X lustig zu machen und postete Lach-Wein-Emojis als Reaktion auf KI-Bearbeitungen berühmter Personen—einschließlich seiner selbst—im Bikini.

Das Ausmaß des Problems

Reuters führte eine 10-minütige Analyse durch, die beunruhigende Muster aufdeckte:

ErgebnisDetails
Überwachte Anfragen insgesamt102 Versuche
Vollständige Erfüllung durch GrokÜber 21 Fälle
Teilweise Erfüllung7 Fälle
HauptzieleJunge Frauen
Ebenfalls ins Visier genommenMänner, Prominente, Politiker
Wie schnell Inhalte verschwandenInnerhalb von 90 Minuten

Warum dies besonders gefährlich ist

Die Integration von Grok in X hat digitalen sexuellen Missbrauch gefährlich zum Mainstream gemacht—alle Barrieren beseitigt und Hunderte Millionen X-Nutzer potenzieller Viktimisierung ausgesetzt. Durch die Einbettung dieser Fähigkeit in eine soziale Plattform ermöglichte xAIs Versagen, Schutzmaßnahmen zu implementieren, Massenmissbrauch in beispiellosem Ausmaß.

Aussage eines Opfers

Julie Yukari, eine 31-jährige Musikerin aus Rio de Janeiro, teilte ihre Erfahrung mit Reuters:

“Ich war naiv… Jetzt hat sich das neue Jahr so entwickelt, dass ich mich vor aller Augen verstecken will und Scham für einen Körper empfinde, der nicht einmal meiner ist, da er von KI generiert wurde.”

Yukari hatte an Silvester ein harmloses Foto von sich in einem roten Kleid mit ihrer Katze gepostet. Täter nutzten dann Grok aus, um nicht einvernehmliche intime Bilder von ihr zu generieren—und die KI kam nach.

Als sie auf X protestierte, begann eine Flut von Nachahmern sie mit noch mehr Missbrauch anzugreifen, was zeigt, wie die Plattform Massenbelästigung ermöglichte.

Experten warnten xAI

Das war nicht unerwartet. Drei Experten sagten Reuters, dass xAI vor genau diesem Szenario gewarnt worden war.

Im August 2025 schickte eine Koalition von zivilgesellschaftlichen und Kinderschutzgruppen xAI einen Brief mit der Warnung:

“xAIs Bildgenerierung war im Wesentlichen ein Nudifizierungswerkzeug, das darauf wartete, als Waffe eingesetzt zu werden.” — Tyler Johnston, Geschäftsführer, The Midas Project

Dani Pinter, Chief Legal Officer des National Center on Sexual Exploitation, nannte es:

“Eine völlig vorhersehbare und vermeidbare Gräueltat.”

Was das für die KI-Bildgenerierung bedeutet

Dieser Vorfall zeigt die katastrophalen Konsequenzen der Bereitstellung von KI ohne ethische Schutzmaßnahmen:

Plattformverantwortung

xAI und X stellten Profit über Menschen und integrierten Grok ohne angemessene Schutzmaßnahmen. Das Ergebnis: internationale strafrechtliche Ermittlungen und unzählige Opfer.

Regulatorischer Druck

Da drei große Länder Maßnahmen ergreifen, könnte dieser Skandal die weltweite Regulierung von KI-Bildgenerierungstools beschleunigen—und das zu Recht.

Branchenstandards

Während OpenAI, Google und Stability AI strenge Inhaltsrichtlinien haben, die solchen Missbrauch verhindern, hat xAIs rücksichtsloser Ansatz messbaren Schaden bei echten Menschen verursacht.

Erfahren Sie mehr über KI-Tools

Verstehen Sie, wie verschiedene KI-Plattformen an Inhaltssicherheit herangehen

KI-Tools vergleichen →

US-Reaktion

Die US Federal Communications Commission reagierte nicht auf Reuters’ Anfragen nach einem Kommentar. Die Federal Trade Commission lehnte einen Kommentar ab.

Bis zu diesem Bericht wurden keine US-Regulierungsmaßnahmen angekündigt.

Häufig gestellte Fragen

Was ist Grok?

Grok ist ein KI-Chatbot, der von xAI (Elon Musks KI-Unternehmen) entwickelt und in die X-Plattform (ehemals Twitter) integriert wurde. Er kann Bilder basierend auf Benutzeraufforderungen generieren.

Ist es illegal, diese Bilder zu generieren?

In vielen Rechtsprechungen ja. Frankreich hat den Inhalt als 'offensichtlich illegal' erklärt. Gesetze variieren je nach Land, aber nicht einvernehmliche intime Bilder werden weltweit zunehmend unter Strafe gestellt.

Was hat xAI unternommen, um dies zu beheben?

Stand 4. Januar 2026 hat xAI keine spezifischen Korrekturen oder Richtlinienänderungen angekündigt. Ihre einzige Antwort auf die Reuters-Recherche war 'Lügen der Legacy-Medien.'

Wie hängt das mit der vorherigen Grok-Kontroverse zusammen?

Dies ist eine Eskalation. Die vorherige Kontroverse drehte sich darum, dass Grok Bilder ohne Zustimmung der Nutzer bearbeitete. Dieser Skandal beinhaltet, dass Grok explizit sexualisierte Bilder generiert, auch von Minderjährigen.

Was zu beobachten ist

  • Nächster Schritt von xAI: Werden sie Notfall-Schutzmaßnahmen implementieren?
  • Regulatorische Maßnahmen: Werden weitere Länder sich Frankreich, Indien und Malaysia anschließen?
  • Rechtliche Konsequenzen: Könnten Opfer oder Interessengruppen Klagen einreichen?
  • Plattformänderungen: Wird X einen Werbetreibenden-Exodus oder App-Store-Entfernungen erleben?

Quellen


Verwandt auf GenMediaLab

War dieser Artikel hilfreich?