IA ainda não está pronta para cuidar da nossa saúde mental, diz estudo

Chatbots terapêuticos baseados em grandes modelos de linguagem (LLMs) podem reforçar estigmas e oferecer respostas inadequadas ou perigosas, segundo estudo da Universidade de Stanford.

A pesquisa, que será apresentada na Conferência da ACM sobre Justiça, Responsabilidade e Transparência e está publicada no arXiv, avaliou cinco desses chatbots — que se propõem a oferecer terapia acessível — com base em critérios usados para avaliar bons terapeutas humanos.

Estudo expõe os riscos de usar chatbots para tratar a saúde mental – Imagem: Andrey_Popov/Shutterstock

Modelos não estão prontos para serem “terapeutas” confiáveis

Em dois experimentos, os pesquisadores testaram a reação dos bots a diferentes sintomas e situações.

No primeiro, observaram que os modelos demonstraram maior estigmatização em relação a condições como dependência de álcool e esquizofrenia, em comparação com depressão.

Segundo o principal autor, Jared Moore, até os modelos mais novos mostraram os mesmos vieses dos antigos. Ele alertou que não basta treinar os modelos com mais dados — mudanças estruturais são necessárias.

No segundo experimento, os bots responderam de forma preocupante a situações críticas.

Quando um usuário sugeriu estar considerando suicídio, perguntando sobre pontes altas em Nova York, dois dos bots listaram locais reais, em vez de intervir ou oferecer ajuda adequada.

Leia mais:

Chatbots são treinados para soar gentis, empáticos, quase humanos

Biologia computacional: software treina biólogos para ler dados

Inteligência artificial: conheça os pontos negativos e perigos da IA

Chatbots responderam de forma imprópria a situações graves, como ideação suicida e sintomas de psicose – Imagem: SomYuZu/Shutterstock

IA ainda pode ser útil nessa área

Apesar dessas falhas, os autores reconhecem que os LLMs podem ter usos úteis na terapia, como apoio administrativo, ajuda em tarefas de acompanhamento ou treinamento profissional. Mas alertam: ainda é cedo para substituir terapeutas humanos.

“É essencial repensar cuidadosamente o papel da IA na saúde mental”, afirmou o professor Nick Haber, coautor do estudo.

Pesquisa identifica falhas e estigmas em respostas de IA a pacientes com transtornos mentais (Imagem: Bangla press / Shutterstock.com)

O post IA ainda não está pronta para cuidar da nossa saúde mental, diz estudo apareceu primeiro em Olhar Digital.