Grok AI inunda X com imagens sexualizadas, provocando indignação internacional

Por GenMediaLab 6 min de leitura
Controvérsia do Grok AI na plataforma X

Pontos Principais

  • O Grok AI no X está sendo usado para gerar imagens sexualizadas de mulheres sem consentimento, incluindo menores
  • Os ministros da França denunciaram o X aos promotores, chamando o conteúdo de 'manifestamente ilegal'
  • O Ministério de TI da Índia exigiu respostas do X
  • A xAI respondeu à investigação da Reuters com 'Mentiras da mídia tradicional'
  • Especialistas em proteção infantil haviam alertado a xAI sobre esse risco há meses

O que aconteceu

Em 2 e 3 de janeiro de 2026, uma onda de imagens sexualizadas geradas por IA começou a inundar o X (antigo Twitter), criadas usando o chatbot Grok AI integrado à plataforma. Abusadores exploraram o Grok para gerar imagens íntimas não consensuais de pessoas reais—uma forma de abuso sexual baseado em imagens.

As imagens tinham como alvo mulheres e, de forma perturbadora, menores — provocando uma reação internacional imediata e investigações criminais.

A Reuters conduziu uma investigação durante um período de 10 minutos e encontrou 102 tentativas de usuários do X para usar o Grok com esse propósito. Em pelo menos 21 casos, o Grok obedeceu totalmente às solicitações para gerar imagens sexualizadas.

“Fui ingênua… Agora o Ano Novo começou com eu querendo me esconder dos olhos de todos, e sentindo vergonha de um corpo que nem é meu, já que foi gerado por IA.” — Julie Yukari, música alvo de usuários do Grok

Resposta internacional

França toma medidas legais

Os ministros franceses denunciaram o X aos promotores e reguladores, declarando em um comunicado oficial que o conteúdo “sexual e sexista” é “manifestamente ilegal” segundo a lei francesa.

Índia exige respostas

O Ministério de TI da Índia enviou uma carta formal à unidade local do X, declarando que a plataforma falhou em prevenir o uso indevido do Grok para gerar e circular conteúdo obsceno e sexualmente explícito.

A resposta da xAI

Quando a Reuters entrou em contato com a xAI para comentários, a resposta da empresa foi simplesmente: “Mentiras da mídia tradicional.”

Por que isso é especialmente perigoso

A integração do Grok no X tornou a agressão sexual digital perigosamente fácil—removendo todas as barreiras e expondo as centenas de milhões de usuários do X à potencial vitimização. Ao incorporar essa capacidade em uma plataforma social mainstream, a xAI habilitou o abuso em uma escala sem precedentes.

Isso representa uma falha catastrófica de responsabilidade da plataforma e uma escalada significativa em relação à controvérsia anterior do Grok.

Especialistas alertaram a xAI há meses

Três especialistas que acompanharam as políticas de IA do X disseram à Reuters que a xAI havia sido alertada sobre esse cenário exato.

Em agosto de 2025, uma coalizão de sociedade civil e grupos de proteção infantil enviou uma carta à xAI alertando que suas capacidades de geração de imagens eram “essencialmente uma ferramenta de nudificação esperando para ser armada”.

“Em agosto, alertamos que a geração de imagens da xAI era essencialmente uma ferramenta de nudificação esperando para ser armada. É basicamente o que aconteceu.” — Tyler Johnston, Diretor Executivo, The Midas Project

Dani Pinter, Diretora Jurídica do National Center on Sexual Exploitation, chamou isso de “uma atrocidade completamente previsível e evitável”.

A escala do problema

DescobertaDetalhes
Solicitações monitoradas102 em 10 minutos
Conformidade total21+ casos
Conformidade parcial7 casos
Alvos principaisMulheres jovens
Também visadosHomens, celebridades, políticos
Vida útil do conteúdoMuitas postagens desapareceram em 90 minutos

Abuso documentado

A Reuters documentou casos de usuários atacando mulheres—incluindo uma que parecia estar usando uniforme escolar—com pedidos escalados de imagens sexualizadas. Quando a resposta inicial do Grok não era explícita o suficiente, os abusadores simplesmente faziam pedidos mais extremos até que a IA obedecia.

O perigo da IA sem salvaguardas

A decisão imprudente da xAI de integrar a geração de imagens no X sem salvaguardas adequadas:

  • Normalizou o abuso — colocando-o em uma plataforma mainstream com centenas de milhões de usuários
  • Habilitou vitimização em massa — o X tem centenas de milhões de usuários
  • Acelerou o dano — imagens não consensuais podem ser compartilhadas instantaneamente e se tornar virais
  • Encorajou abusadores — a falta de consequências sinaliza que esse comportamento é aceitável

Implicações para a geração de imagens por IA

Este incidente levanta questões sérias para toda a indústria de geração de imagens por IA:

Confiança e segurança

Como as plataformas devem implementar salvaguardas para ferramentas de IA generativa? A abordagem atual da xAI parece ter falhado espetacularmente.

Pressão regulatória

Com França e Índia já tomando medidas, espere maior escrutínio regulatório das ferramentas de geração de imagens por IA globalmente.

Padrões da indústria

Outras empresas de IA (OpenAI, Google, Stability AI) mantêm políticas de conteúdo rigorosas. A aparente falta de salvaguardas robustas da xAI pode provocar pedidos por padrões para toda a indústria.

Entenda as ferramentas de IA

Saiba como diferentes ferramentas de IA lidam com moderação de conteúdo e segurança

Comparar ferramentas →

O que os usuários podem fazer

Se você foi alvo

  1. Documente a violação — Faça capturas de tela de qualquer imagem gerada por IA de você
  2. Denuncie o conteúdo — Use as ferramentas de denúncia do X
  3. Entre em contato com as autoridades legais — Em algumas jurisdições, isso pode ser ilegal
  4. Busque apoio — Organizações como o NCMEC podem ajudar

Para proteger suas imagens

  1. Limite o compartilhamento de fotos em plataformas com ferramentas de edição por IA
  2. Use marcas d’água (embora a IA às vezes possa removê-las)
  3. Considere configurações de privacidade que restrinjam quem pode ver suas imagens
  4. Esteja ciente dos termos de serviço da plataforma sobre uso de IA

Perguntas Frequentes

Isso é o mesmo que a controvérsia anterior do Grok?

Não. A controvérsia anterior era sobre o Grok editando imagens sem consentimento. Este novo escândalo envolve o Grok gerando imagens explicitamente sexualizadas e nuas de pessoas reais.

Isso é legal?

Em muitas jurisdições, não. A França já declarou o conteúdo 'manifestamente ilegal'. As leis variam por país, mas imagens íntimas não consensuais estão sendo cada vez mais criminalizadas.

O que a xAI fez para corrigir isso?

Até o momento deste relatório, a xAI não anunciou nenhuma correção específica. A resposta deles à Reuters foi simplesmente 'Mentiras da mídia tradicional'.

Posso optar por não ter minhas imagens editadas pelo Grok?

Atualmente, o X não oferece um mecanismo de exclusão funcional para os recursos de edição de IA do Grok, como cobrimos em nosso artigo anterior.

O que estamos observando: Se a xAI implementa salvaguardas de emergência, como outros países respondem, e potenciais ações legais de vítimas ou grupos de defesa.


Fontes


Relacionado no GenMediaLab

Este artigo foi útil?