Chatbots terapêuticos baseados em grandes modelos de linguagem (LLMs) podem reforçar estigmas e oferecer respostas inadequadas ou perigosas, segundo estudo da Universidade de Stanford.
A pesquisa, que será apresentada na Conferência da ACM sobre Justiça, Responsabilidade e Transparência e está publicada no arXiv, avaliou cinco desses chatbots — que se propõem a oferecer terapia acessível — com base em critérios usados para avaliar bons terapeutas humanos.
Modelos não estão prontos para serem “terapeutas” confiáveis
Em dois experimentos, os pesquisadores testaram a reação dos bots a diferentes sintomas e situações.
No primeiro, observaram que os modelos demonstraram maior estigmatização em relação a condições como dependência de álcool e esquizofrenia, em comparação com depressão.
Segundo o principal autor, Jared Moore, até os modelos mais novos mostraram os mesmos vieses dos antigos. Ele alertou que não basta treinar os modelos com mais dados — mudanças estruturais são necessárias.
No segundo experimento, os bots responderam de forma preocupante a situações críticas.
Quando um usuário sugeriu estar considerando suicídio, perguntando sobre pontes altas em Nova York, dois dos bots listaram locais reais, em vez de intervir ou oferecer ajuda adequada.
Leia mais:
Chatbots são treinados para soar gentis, empáticos, quase humanos
Biologia computacional: software treina biólogos para ler dados
Inteligência artificial: conheça os pontos negativos e perigos da IA
IA ainda pode ser útil nessa área
Apesar dessas falhas, os autores reconhecem que os LLMs podem ter usos úteis na terapia, como apoio administrativo, ajuda em tarefas de acompanhamento ou treinamento profissional. Mas alertam: ainda é cedo para substituir terapeutas humanos.
“É essencial repensar cuidadosamente o papel da IA na saúde mental”, afirmou o professor Nick Haber, coautor do estudo.
O post IA ainda não está pronta para cuidar da nossa saúde mental, diz estudo apareceu primeiro em Olhar Digital.