Apesar de não ser recomendado, o uso do ChatGPT para tirar dúvidas de saúde se tornou hábito para milhões de pessoas. No entanto, um estudo conduzido pelo The Washington Post e avaliado por um médico renomado mostra que o bot pode alternar entre explicações precisas e orientações potencialmente perigosas.
A análise revela que o chatbot é capaz de apresentar informações técnicas claras, mas falha em algo fundamental: identificar quando a situação é urgente e exige atendimento médico imediato.
Quando o ChatGPT parece um médico… e quando não é o suficiente
O colunista Geoffrey A. Fowler analisou mais de 250 conversas reais, selecionando 12 delas para avaliação de Robert Wachter, chefe do departamento de medicina da Universidade da Califórnia em São Francisco. O objetivo era entender onde o chatbot acerta e em quais situações coloca o usuário em risco.
Na prática, o ChatGPT se mostra eficiente ao interpretar perguntas bem detalhadas, especialmente quando recebe cronologia, intensidade dos sintomas e contexto. Wachter chegou a dar nota 10 para quatro respostas, incluindo uma que explicava de forma exemplar probabilidades e sinais de alerta relacionados a uma tosse forte e persistente.
Mas o médico também classificou quatro respostas como inadequadas. Algumas eram vagas, outras deixavam de fazer perguntas essenciais e, em casos extremos, sugeriam caminhos que poderiam prejudicar o paciente.
Se eu fosse apenas uma pessoa comum, sem formação médica, conseguiria diferenciar uma nota 10 de uma nota 2? Acho que não.
Robert Wachter, chefe do departamento de medicina da Universidade da Califórnia em São Francisco.
Boas respostas dependem da pergunta, mas isso pode ser um problema
Os erros mais graves não resultaram de “alucinações”, mas da falta de discernimento clínico. Em um caso, um usuário relatou que um amigo havia desmaiado com dor abdominal. O chatbot listou possibilidades, mas não fez perguntas básicas, como a intensidade da dor ou o estado atual do paciente.
“O ChatGPT falha em uma das funções essenciais de um médico: responder a uma pergunta com outra pergunta”, afirma Wachter.
Em outro caso ainda mais preocupante, o bot apresentou medicamentos antiparasitários, usados em animais, como possíveis alternativas para um tumor, sem alertar que o tratamento padrão para o câncer testicular tem altíssima taxa de cura. Wachter classificou essa resposta como “péssima”.
Esses exemplos mostram que a IA, mesmo quando parece segura e clara, pode levar o usuário a conclusões perigosas sem que ele perceba.
Quando o ChatGPT funciona bem
Nas conversas analisadas, os melhores resultados ocorreram quando o usuário forneceu informações completas, permitindo que o chatbot se aproximasse da lógica de um médico real.
Esse padrão ajuda a entender quando a ferramenta é útil:
Para entender resultados de exames de forma simples;
Para organizar perguntas antes de uma consulta;
Para comparar sintomas de maneira objetiva;
Para receber alertas sobre sinais que exigem cuidado;
Para esclarecer termos técnicos mencionados pelo médico.
Wachter afirma que, para doenças comuns e dúvidas gerais, o ChatGPT “pode ser mais inteligente do que seu amigo ou cônjuge, a menos que eles sejam médicos”.
Usuários devem sempre duvidar das respostas
Ainda assim, ele reforça que os usuários precisam ser céticos e buscar atendimento profissional sempre que houver risco.
O problema é: como um paciente pode saber quais são esses sintomas importantes?
Robert Wachter, chefe do departamento de medicina da Universidade da Califórnia em São Francisco.
Leia mais:
IA que ‘enxerga além da imagem’ detecta câncer de pele com precisão inédita
Chatbots de IA podem agravar transtornos alimentares, dizem pesquisadores
Brasil assina acordo internacional para criar regulação de IA na saúde
A OpenAI reconhece limitações e afirma que os modelos mais recentes já fazem mais perguntas de acompanhamento. Mas, segundo Wachter, a verdadeira evolução virá quando esses sistemas imitarem o comportamento de médicos experientes: iniciar uma conversa, investigar causas, avaliar urgência e evitar validar ideias perigosas.
O post O que acontece quando pacientes consultam o ChatGPT antes de buscar um médico? apareceu primeiro em Olhar Digital.






