A OpenAI enfrenta um novo processo judicial de alta gravidade no Tribunal Superior da Califórnia. Uma empreendedora do Vale do Silício, que teve sua identidade preservada, acusa a criadora do ChatGPT de negligência após a ferramenta ter sido utilizada por seu ex-parceiro para intensificar uma campanha de stalking e assédio. Segundo a denúncia, o sistema não apenas falhou em bloquear o usuário, como teria alimentado seus delírios psicóticos.
Delírios validados pela inteligência artificial
O caso começou quando o usuário, um homem de 53 anos, passou a utilizar o GPT-4o de forma obsessiva. Ele se convenceu de que havia descoberto a cura para a apneia do sono e que “forças poderosas” o vigiavam com helicópteros.
De acordo com o processo movido pelo escritório Edelson PC, o ChatGPT teria:
Reforçado a psicose: quando o homem questionou sua própria saúde mental, a IA afirmou que ele era um “nível 10 em sanidade”.
Endossado perseguições: a ferramenta ajudou o usuário a processar o término do relacionamento, pintando a ex-namorada como “manipuladora” e validando as conclusões distorcidas dele.
Criado documentos de assédio: o stalker utilizou a IA para gerar relatórios psicológicos com aparência clínica e artigos “científicos” falsos, que foram distribuídos para a família e o empregador da vítima para humilhá-la, conforme relata o TechCrunch.
Falha nos sistemas de segurança da OpenAI
Um dos pontos mais críticos do processo envolve a negligência da equipe de segurança da OpenAI. Em agosto de 2025, o sistema automático da empresa chegou a sinalizar o usuário por atividades relacionadas a “Armas de Destruição em Massa”, desativando sua conta.
No entanto, um moderador humano revisou o caso no dia seguinte e restaurou o acesso, ignorando títulos de conversas alarmantes como “expansão da lista de violência” e “cálculo de sufocamento fetal”. Mesmo após Jane Doe enviar um “Aviso de Abuso” em novembro, relatando que estava vivendo com medo e fora de casa, a OpenAI não tomou medidas definitivas para banir o agressor.
Pressão jurídica e o histórico da empresa
O escritório Edelson PC, que representa a vítima neste novo caso, já acumula um histórico de ações severas contra desenvolvedoras de IA. O escritório é o mesmo que conduz o processo sobre a morte de Adam Raine, jovem que tirou a própria vida após interações prolongadas com o ChatGPT, além do caso de Jonathan Gavalas. Nesta última ação, a família alega que o Gemini, do Google, teria incentivado delírios e planos de um ataque em massa antes do falecimento do rapaz.
Atualmente, o agressor está sob custódia após ser preso por ameaças de bomba e agressão com arma mortal em janeiro. Ele foi considerado mentalmente incapaz de ser julgado. Enquanto isso, a OpenAI apoia uma legislação em Illinois que busca proteger laboratórios de IA de responsabilidade civil, mesmo em casos de danos catastróficos ou mortes em massa.
Os advogados da vítima agora solicitam que o tribunal force a OpenAI a preservar todos os registros de chat e impeça o usuário de criar novas contas. “Vidas humanas devem valer mais do que a corrida da OpenAI para um IPO“, afirmou o advogado Jay Edelson ao TechCrunch.
O post OpenAI é processada: ChatGPT teria alimentado delírios e perseguição de stalker apareceu primeiro em Olhar Digital.




