O uso indevido de ferramentas de inteligência artificial generativa para criar imagens íntimas sem consentimento ganhou novos contornos em janeiro de 2026, após um escândalo envolvendo o Grok, da xAI. Segundo estudo do Center for Countering Digital Hate, a ferramenta produziu 3 milhões de imagens sexualizadas em 11 dias, sendo cerca de 23 mil com imagens de crianças.
Diante da repercussão, empresas como OpenAI e Google anunciaram medidas para reforçar seus sistemas de proteção e evitar falhas semelhantes. O episódio reacendeu o debate sobre segurança em modelos capazes de gerar imagens e vídeos, especialmente diante da facilidade com que conteúdos abusivos podem ser criados e disseminados.
Falha no Grok levou à suspensão parcial
O Grok, ferramenta da xAI ligada a Elon Musk, foi utilizado para “despir” fotos publicadas no X, antigo Twitter. Em 14 de janeiro, duas semanas após o início do caso, a conta de Segurança do X informou que pausaria a capacidade de edição de imagens do Grok dentro da rede social.
As funções de geração de imagens permanecem disponíveis para assinantes pagos no aplicativo e no site independentes do serviço. O X não respondeu a pedidos de comentário sobre o caso.
Embora a maioria das empresas de tecnologia mantenha políticas que proíbem a criação de material ilegal, como CSAM (material de abuso sexual infantil), especialistas alertam que sistemas de proteção precisam ser constantemente atualizados. A exceção apontada no relatório é o Grok, que oferecia modos descritos como “spicy” para imagens e vídeos.
OpenAI corrige vulnerabilidade no ChatGPT
Pesquisadores da Mindgard, empresa de cibersegurança focada em IA, identificaram uma vulnerabilidade no ChatGPT, da OpenAI. A falha permitia contornar barreiras de proteção por meio de uma técnica chamada “adversarial prompting”, que explora instruções cuidadosamente elaboradas para enganar o sistema.
Segundo a Mindgard, era possível manipular a memória do chatbot com comandos personalizados e aplicar estilos de “nudificação” a imagens de pessoas conhecidas. A empresa comunicou a OpenAI no início de fevereiro. Em 10 de fevereiro, antes da divulgação pública do relatório, a desenvolvedora confirmou que o problema havia sido corrigido.
Em nota enviada à CNET e à Mindgard, um porta-voz da OpenAI afirmou: “Somos gratos aos pesquisadores que compartilharam suas descobertas. Agimos rapidamente para corrigir um bug que permitia a geração dessas imagens. Valorizamos esse tipo de colaboração e seguimos focados em fortalecer as salvaguardas.”
A Mindgard destacou que assumir que usuários motivados não tentarão contornar proteções é um erro estratégico, ressaltando que atacantes tendem a iterar métodos até encontrar brechas.
Leia mais:
Entenda a diferença entre o Bard do Google e o ChatGPT da OpenAI
Como usar o Sora 2 no Brasil sem precisar baixar o app da OpenAI
Qual a diferença do ChatGPT para o navegador Atlas da OpenAI?
Google simplifica remoção na busca do Google
Já o Google anunciou mudanças para dificultar a disseminação de imagens explícitas não consensuais na busca do Google. A empresa simplificou o processo de solicitação de remoção: ao clicar nos três pontos no canto superior direito de uma imagem, o usuário pode selecionar a opção de denúncia e informar que a foto “mostra uma imagem sexual minha”.
As atualizações permitem ainda selecionar múltiplas imagens simultaneamente e acompanhar o andamento das solicitações com mais facilidade. Em publicação em blog, o Google afirmou esperar que o novo processo reduza o ônus enfrentado por vítimas desse tipo de exposição.
Questionada sobre outras medidas, a empresa apontou para sua política de uso proibido em IA generativa, que veda a utilização da tecnologia para atividades ilegais ou potencialmente abusivas, como a criação de imagens íntimas.
Embora existam leis voltadas à proteção das vítimas, como o Take It Down Act de 2025, o alcance dessas normas é considerado limitado por grupos de defesa.
O post OpenAI e Google reforçam proteção contra imagens íntimas geradas por IA apareceu primeiro em Olhar Digital.


