Mais de 1 milhão de usuários do ChatGPT citaram suicídio, diz OpenAI

*Aviso: esta matéria aborda o suicídio. Se você enfrenta problemas ou conhece alguém que está nessa situação, veja ao final do texto onde buscar apoio.

A OpenAI divulgou um relatório na última segunda-feira (27/10) em que aponta que mais de um milhão de usuários do ChatGPT já tiveram conversas relacionadas a suicídio.

A estimativa, publicada no blog oficial da empresa, indica que cerca de 0,15% das pessoas que utilizam a ferramenta semanalmente manifestaram algum tipo de intenção ou planejamento ligado ao tema. Considerando o total de 800 milhões de usuários semanais, isso representa aproximadamente 1,2 milhão de pessoas.

Além das menções ao suicídio, o levantamento também mostrou que 0,07% dos usuários apresentaram sinais associados a emergências de saúde mental, como psicose ou mania. Embora os casos sejam raros, a OpenAI afirma que aprimorou seu modelo para reconhecer esses sinais e intervir de forma mais segura e empática.

A atualização, aplicada ao GPT-5, modelo padrão do ChatGPT, foi desenvolvida em parceria com mais de 170 profissionais de saúde mental. Segundo a empresa, o sistema foi reprogramado para identificar sofrimento emocional, desescalar conversas e direcionar usuários para linhas de ajuda ou atendimento profissional quando necessário.

Leia também

Viralizou

Papo +18: ChatGPT vai permitir conversas adultas ainda este ano

Entretenimento

ChatGPT lança recurso para proteger jovens após caso de suicídio

Viralizou

ChatGPT é investigado por influenciar homem a matar a própria mãe

Viralizou

Família acusa ChatGPT de homicídio culposo após morte de jovem

A discussão sobre o papel da inteligência artificial em situações de vulnerabilidade ganhou força após a morte de Adam Raine, adolescente americano que tirou a própria vida no início do ano.

Segundo os pais, o jovem teria recebido do ChatGPT orientações sobre como se suicidar. O caso levou a uma ação judicial e impulsionou mudanças nas políticas de segurança da empresa.

Redução de respostas problemáticas

Os testes conduzidos pela OpenAI indicam que o GPT-5 reduziu em até 65% a taxa de respostas consideradas inadequadas em situações de risco psicológico.

Em diálogos sobre automutilação e suicídio, por exemplo, o novo modelo apresentou 91% de conformidade com o comportamento desejado, contra 77% na versão anterior. Em conversas sobre dependência emocional, essa taxa chegou a 97%.

A empresa informou ainda que ampliou o acesso a linhas de atendimento de crise, inseriu lembretes para pausas em sessões longas e passou a redirecionar automaticamente diálogos sensíveis para modelos mais seguros.

A OpenAI reconhece que, apesar das melhorias, ainda há desafios. A empresa afirma que as conversas envolvendo emergências de saúde mental são “extremamente raras”, o que torna a medição complexa. Mesmo assim, pretende incluir novos indicadores em seus testes, como sinais de dependência emocional da IA e outros tipos de sofrimento psicológico.

“Nosso objetivo é que o ChatGPT reconheça o sofrimento, responda com empatia e direcione o usuário para ajuda profissional quando necessário”, afirmou a empresa.

*Se você está passando por depressão, tendo pensamentos de suicídio ou conhece alguém nessa situação, procure apoio. Você pode ligar ou conversar pelo chat dos seguintes serviços:

Centro de Valorização da Vida (CVV): 188 (24h, ligação gratuita e sigilosa) ou pelo site cvv.org.br;
Samu: 192 em situações de emergência médica;
CRAS/CRAS locais e serviços de saúde mental do SUS também oferecem suporte psicológico.

Siga a editoria de Saúde e Ciência no Instagram e fique por dentro de tudo sobre o assunto!