*Aviso: esta matéria aborda o suicídio. Se você enfrenta problemas ou conhece alguém que está nessa situação, veja ao final do texto onde buscar apoio.
A OpenAI divulgou um relatório na última segunda-feira (27/10) em que aponta que mais de um milhão de usuários do ChatGPT já tiveram conversas relacionadas a suicídio.
A estimativa, publicada no blog oficial da empresa, indica que cerca de 0,15% das pessoas que utilizam a ferramenta semanalmente manifestaram algum tipo de intenção ou planejamento ligado ao tema. Considerando o total de 800 milhões de usuários semanais, isso representa aproximadamente 1,2 milhão de pessoas.
Além das menções ao suicídio, o levantamento também mostrou que 0,07% dos usuários apresentaram sinais associados a emergências de saúde mental, como psicose ou mania. Embora os casos sejam raros, a OpenAI afirma que aprimorou seu modelo para reconhecer esses sinais e intervir de forma mais segura e empática.
A atualização, aplicada ao GPT-5, modelo padrão do ChatGPT, foi desenvolvida em parceria com mais de 170 profissionais de saúde mental. Segundo a empresa, o sistema foi reprogramado para identificar sofrimento emocional, desescalar conversas e direcionar usuários para linhas de ajuda ou atendimento profissional quando necessário.
Leia também
Papo +18: ChatGPT vai permitir conversas adultas ainda este ano
ChatGPT lança recurso para proteger jovens após caso de suicídio
ChatGPT é investigado por influenciar homem a matar a própria mãe
Família acusa ChatGPT de homicídio culposo após morte de jovem
A discussão sobre o papel da inteligência artificial em situações de vulnerabilidade ganhou força após a morte de Adam Raine, adolescente americano que tirou a própria vida no início do ano.
Segundo os pais, o jovem teria recebido do ChatGPT orientações sobre como se suicidar. O caso levou a uma ação judicial e impulsionou mudanças nas políticas de segurança da empresa.
Redução de respostas problemáticas
Os testes conduzidos pela OpenAI indicam que o GPT-5 reduziu em até 65% a taxa de respostas consideradas inadequadas em situações de risco psicológico.
Em diálogos sobre automutilação e suicídio, por exemplo, o novo modelo apresentou 91% de conformidade com o comportamento desejado, contra 77% na versão anterior. Em conversas sobre dependência emocional, essa taxa chegou a 97%.
A empresa informou ainda que ampliou o acesso a linhas de atendimento de crise, inseriu lembretes para pausas em sessões longas e passou a redirecionar automaticamente diálogos sensíveis para modelos mais seguros.
A OpenAI reconhece que, apesar das melhorias, ainda há desafios. A empresa afirma que as conversas envolvendo emergências de saúde mental são “extremamente raras”, o que torna a medição complexa. Mesmo assim, pretende incluir novos indicadores em seus testes, como sinais de dependência emocional da IA e outros tipos de sofrimento psicológico.
“Nosso objetivo é que o ChatGPT reconheça o sofrimento, responda com empatia e direcione o usuário para ajuda profissional quando necessário”, afirmou a empresa.
*Se você está passando por depressão, tendo pensamentos de suicídio ou conhece alguém nessa situação, procure apoio. Você pode ligar ou conversar pelo chat dos seguintes serviços:
Centro de Valorização da Vida (CVV): 188 (24h, ligação gratuita e sigilosa) ou pelo site cvv.org.br;
Samu: 192 em situações de emergência médica;
CRAS/CRAS locais e serviços de saúde mental do SUS também oferecem suporte psicológico.
Siga a editoria de Saúde e Ciência no Instagram e fique por dentro de tudo sobre o assunto!






