OpenAI revela como o ChatGPT foi usado para golpes e espionagem mundo afora

A OpenAI baniu contas ligadas a órgãos de segurança da China, redes de golpes amorosos e grupos que tentam influenciar a opinião pública mundial. O relatório de ameaças de fevereiro de 2026, publicado nesta semana, detalha como o ChatGPT foi usado de forma indevida em campanhas contra líderes políticos e autoridades do governo.

Segundo a empresa, criminosos misturaram o uso da inteligência artificial (IA) com ferramentas comuns, como redes sociais e sites falsos, para tentar parecer mais confiáveis. Eles fizeram de tudo: desde criar agências de namoro de mentira até falsificar documentos e se passar por escritórios de advocacia.

OpenAI interrompe operações globais que usavam IA para espionagem e golpes financeiros

Uma dessas operações, ligada à polícia chinesa, usou o ChatGPT para planejar ataques de influência contra a primeira-ministra do Japão, Sanae Takaichi, de acordo com a OpenAI. Embora o sistema de IA tenha se recusado a ajudar no plano inicial de ataque direto, a ferramenta acabou sendo usada para gerenciar centenas de contas falsas e organizar seus relatórios. O objetivo era silenciar críticas e intimidar pessoas que discordam do governo chinês, tanto dentro quanto fora da China.

No Sudeste Asiático, uma rede no Camboja aplicava um golpe romântico focado em homens na Indonésia. O grupo usava o ChatGPT para criar textos e anúncios convincentes. O objetivo era levar as vítimas para sites falsos que exigiam pagamentos muito altos. Estima-se que essa operação, que misturava trabalho humano e automatizado, prejudicava centenas de pessoas todos os meses por meio de manipulação emocional.

Misturando uso do ChatGPT com ferramentas comuns, criminosos fizeram de tudo: desde criar agências de namoro de mentira até falsificar documentos e se passar por escritórios de advocacia, diz OpenAI (Imagem: Iljanaresvara Studio/Shutterstock)

A OpenAI também descobriu contas da rede russa Rybar sendo usadas para criar e traduzir posts em redes sociais como o X/Twitter e o Telegram. A análise mostrou que o conteúdo feito por IA nem sempre é o que garante o sucesso de uma postagem; na verdade, o que mais conta é a popularidade de quem publica. Além disso, os usuários costumam trocar entre vários modelos de IA para tentar escapar das regras e trabalhar de forma mais rápida.

Fora do mundo político, criminosos fingiram ser policiais americanos e advogados para extorquir dinheiro de pessoas que já tinham sido vítimas de golpes antes. Outros grupos tentaram descobrir informações sigilosas sobre a localização de prédios federais nos EUA e pediram ajuda para usar programas de troca de rostos (face-swapping) em vídeos. 

A OpenAI defende que divulgar esses dados é fundamental para que o setor de tecnologia e a sociedade saibam como se proteger dessas novas ameaças digitais.

(Essa matéria usou informações da OpenAI.)

O post OpenAI revela como o ChatGPT foi usado para golpes e espionagem mundo afora apareceu primeiro em Olhar Digital.