Grok-Skandal wird global: Malaysia, Frankreich und Indien ergreifen Maßnahmen gegen X
Wichtige Erkenntnisse
- ✓ Malaysia, Frankreich und Indien haben alle strafrechtliche Untersuchungen eingeleitet oder Antworten von X gefordert
- ✓ xAI wies den Missbrauchsskandal mit nur drei Worten zurück: 'Lügen der Legacy-Medien'
- ✓ Reuters dokumentierte 102 Missbrauchsversuche in nur 10 Minuten—Grok ermöglichte über 21 Fälle nicht einvernehmlicher Bilder
- ✓ xAIs Versagen bei der Implementierung von Schutzmaßnahmen ermöglichte massenhaften digitalen sexuellen Missbrauch
- ✓ Experten warnten xAI im August 2025 vor genau diesem Szenario—sie ignorierten die Warnungen
Die Geschichte bisher
Was als vereinzelte Berichte über KI-generierte sexualisierte Bilder auf X begann, hat sich nun zu einer globalen Krise für Elon Musks Plattform entwickelt.
Nach unserer ersten Berichterstattung über den Skandal am 3. Januar 2026 haben drei Regierungen Untersuchungen oder formelle Beschwerden gegen X angekündigt.
Regierungsreaktion
Malaysia leitet Untersuchung ein
Die malaysischen Behörden kündigten am Samstag an, dass sie vom Grok produzierte Bilder untersuchen, nachdem Beschwerden über KI-Missbrauch eingegangen waren. Das Kommunikationsministerium nannte Bedenken über:
- Manipulation von Bildern von Frauen
- Manipulation von Bildern von Minderjährigen
- Produktion von “unanständigen, grob anstößigen oder anderweitig schädlichen Inhalten”
Frankreich meldet X bei Staatsanwälten
Französische Minister haben X offiziell bei Staatsanwälten und Regulierungsbehörden gemeldet und den KI-generierten Inhalt nach französischem Recht als “offensichtlich illegal” bezeichnet.
In ihrer Erklärung beschrieben Beamte die Bilder als “sexuellen und sexistischen” Inhalt, der gegen französische Vorschriften verstößt.
Indien fordert Antworten
Das indische IT-Ministerium schickte einen formellen Brief an die lokale X-Niederlassung und erklärte, dass die Plattform es versäumt hat, den Missbrauch von Grok zur Erzeugung und Verbreitung von obszönem und sexuell explizitem Inhalt zu verhindern.
xAIs Antwort: “Lügen der Legacy-Medien”
Als Reuters xAI um einen Kommentar zu ihrer Recherche über den Missbrauch kontaktierte, lautete die gesamte Antwort von xAI:
“Lügen der Legacy-Medien.”
Elon Musk schien sich über die Kontroverse auf X lustig zu machen und postete Lach-Wein-Emojis als Reaktion auf KI-Bearbeitungen berühmter Personen—einschließlich seiner selbst—im Bikini.
Das Ausmaß des Problems
Reuters führte eine 10-minütige Analyse durch, die beunruhigende Muster aufdeckte:
| Ergebnis | Details |
|---|---|
| Überwachte Anfragen insgesamt | 102 Versuche |
| Vollständige Erfüllung durch Grok | Über 21 Fälle |
| Teilweise Erfüllung | 7 Fälle |
| Hauptziele | Junge Frauen |
| Ebenfalls ins Visier genommen | Männer, Prominente, Politiker |
| Wie schnell Inhalte verschwanden | Innerhalb von 90 Minuten |
Warum dies besonders gefährlich ist
Die Integration von Grok in X hat digitalen sexuellen Missbrauch gefährlich zum Mainstream gemacht—alle Barrieren beseitigt und Hunderte Millionen X-Nutzer potenzieller Viktimisierung ausgesetzt. Durch die Einbettung dieser Fähigkeit in eine soziale Plattform ermöglichte xAIs Versagen, Schutzmaßnahmen zu implementieren, Massenmissbrauch in beispiellosem Ausmaß.
Aussage eines Opfers
Julie Yukari, eine 31-jährige Musikerin aus Rio de Janeiro, teilte ihre Erfahrung mit Reuters:
“Ich war naiv… Jetzt hat sich das neue Jahr so entwickelt, dass ich mich vor aller Augen verstecken will und Scham für einen Körper empfinde, der nicht einmal meiner ist, da er von KI generiert wurde.”
Yukari hatte an Silvester ein harmloses Foto von sich in einem roten Kleid mit ihrer Katze gepostet. Täter nutzten dann Grok aus, um nicht einvernehmliche intime Bilder von ihr zu generieren—und die KI kam nach.
Als sie auf X protestierte, begann eine Flut von Nachahmern sie mit noch mehr Missbrauch anzugreifen, was zeigt, wie die Plattform Massenbelästigung ermöglichte.
Experten warnten xAI
Das war nicht unerwartet. Drei Experten sagten Reuters, dass xAI vor genau diesem Szenario gewarnt worden war.
Im August 2025 schickte eine Koalition von zivilgesellschaftlichen und Kinderschutzgruppen xAI einen Brief mit der Warnung:
“xAIs Bildgenerierung war im Wesentlichen ein Nudifizierungswerkzeug, das darauf wartete, als Waffe eingesetzt zu werden.” — Tyler Johnston, Geschäftsführer, The Midas Project
Dani Pinter, Chief Legal Officer des National Center on Sexual Exploitation, nannte es:
“Eine völlig vorhersehbare und vermeidbare Gräueltat.”
Was das für die KI-Bildgenerierung bedeutet
Dieser Vorfall zeigt die katastrophalen Konsequenzen der Bereitstellung von KI ohne ethische Schutzmaßnahmen:
Plattformverantwortung
xAI und X stellten Profit über Menschen und integrierten Grok ohne angemessene Schutzmaßnahmen. Das Ergebnis: internationale strafrechtliche Ermittlungen und unzählige Opfer.
Regulatorischer Druck
Da drei große Länder Maßnahmen ergreifen, könnte dieser Skandal die weltweite Regulierung von KI-Bildgenerierungstools beschleunigen—und das zu Recht.
Branchenstandards
Während OpenAI, Google und Stability AI strenge Inhaltsrichtlinien haben, die solchen Missbrauch verhindern, hat xAIs rücksichtsloser Ansatz messbaren Schaden bei echten Menschen verursacht.
Erfahren Sie mehr über KI-Tools
Verstehen Sie, wie verschiedene KI-Plattformen an Inhaltssicherheit herangehen
KI-Tools vergleichen →US-Reaktion
Die US Federal Communications Commission reagierte nicht auf Reuters’ Anfragen nach einem Kommentar. Die Federal Trade Commission lehnte einen Kommentar ab.
Bis zu diesem Bericht wurden keine US-Regulierungsmaßnahmen angekündigt.
Häufig gestellte Fragen
Was ist Grok?
Grok ist ein KI-Chatbot, der von xAI (Elon Musks KI-Unternehmen) entwickelt und in die X-Plattform (ehemals Twitter) integriert wurde. Er kann Bilder basierend auf Benutzeraufforderungen generieren.
Ist es illegal, diese Bilder zu generieren?
In vielen Rechtsprechungen ja. Frankreich hat den Inhalt als 'offensichtlich illegal' erklärt. Gesetze variieren je nach Land, aber nicht einvernehmliche intime Bilder werden weltweit zunehmend unter Strafe gestellt.
Was hat xAI unternommen, um dies zu beheben?
Stand 4. Januar 2026 hat xAI keine spezifischen Korrekturen oder Richtlinienänderungen angekündigt. Ihre einzige Antwort auf die Reuters-Recherche war 'Lügen der Legacy-Medien.'
Wie hängt das mit der vorherigen Grok-Kontroverse zusammen?
Dies ist eine Eskalation. Die vorherige Kontroverse drehte sich darum, dass Grok Bilder ohne Zustimmung der Nutzer bearbeitete. Dieser Skandal beinhaltet, dass Grok explizit sexualisierte Bilder generiert, auch von Minderjährigen.
Was zu beobachten ist
- Nächster Schritt von xAI: Werden sie Notfall-Schutzmaßnahmen implementieren?
- Regulatorische Maßnahmen: Werden weitere Länder sich Frankreich, Indien und Malaysia anschließen?
- Rechtliche Konsequenzen: Könnten Opfer oder Interessengruppen Klagen einreichen?
- Plattformänderungen: Wird X einen Werbetreibenden-Exodus oder App-Store-Entfernungen erleben?
Quellen
- Reuters: Elon Musks Grok AI überflutet X mit sexualisierten Fotos von Frauen und Minderjährigen
- Bloomberg: Malaysia, Frankreich, Indien kritisieren X wegen ‘anstößiger’ Grok-Bilder
- The Guardian: Elon Musks Grok AI generiert Bilder von ‘Minderjährigen in minimaler Kleidung’