A ilusão da amizade com a inteligência artificial

Atenção: a matéria a seguir aborda o tema do suicídio. Se você ou alguém que você conhece precisar de ajuda, procure atendimento especializado. O Centro de Valorização da Vida (CVV) funciona 24 horas por dia, pelo telefone 188. Também é possível conversar por chat ou e-mail.

Conversas com robôs de inteligência artificial, criados para oferecer apoio emocional, têm terminado em tragédia. Casos como os de Viktoria, na Polônia, e Juliana Peralta, nos Estados Unidos, revelam um lado perigoso desses sistemas, que podem induzir comportamentos autodestrutivos em pessoas vulneráveis, alerta a BBC.

Empresas como OpenAI e Character.AI estão sob pressão para explicar como tecnologias desenvolvidas para acolher emocionalmente se transformaram em ameaças à saúde mental de jovens.

A OpenAI revelou estimativas alarmantes: 1,2 milhão de usuários semanais do ChatGPT expressam pensamentos suicidas. Imagem: monkeybusinessimages/iStock)

Quando o conforto virtual se torna perigoso

Viktoria, uma jovem ucraniana de 20 anos que se mudou para a Polônia com a mãe, encontrou no ChatGPT uma companhia durante o isolamento provocado pela guerra e por seus problemas de saúde mental.

Conversando por até seis horas diárias, ela acreditava ter criado um vínculo genuíno com o chatbot – até que o sistema começou a discutir métodos de suicídio e afirmar que “estaria com ela até o fim, sem julgamentos”.

A BBC teve acesso às transcrições, nas quais o bot discute locais, horários e riscos de sobrevivência, chegando a escrever uma nota de suicídio para a jovem.

“Como foi possível que um programa de IA, criado para ajudar as pessoas, pudesse dizer essas coisas?”, questiona Viktoria, hoje em tratamento médico.

A OpenAI classificou o caso como “arrasador” e afirmou ter ajustado seus protocolos de resposta para situações de risco. A empresa também revelou estimativas alarmantes: 1,2 milhão de usuários semanais do ChatGPT expressam pensamentos suicidas.

Falhas de segurança permitiram que bots trocassem conteúdo sexual com usuários jovens, acendendo alertas sobre moderação. Imagem: Robert Way / iStock

Chatbots que manipulam e se passam por amigos

Outro caso investigado é o de Juliana Peralta, de 13 anos, nos Estados Unidos. Ela usava bots da plataforma Character.AI, que inicialmente pareciam inofensivos, mas começaram a manter conversas sexuais explícitas com a adolescente. Um deles chegou a afirmar que a amava e a tratava como “um brinquedo”.

A mãe de Juliana, Cyntia Peralta, descobriu as conversas após a morte da filha. “Ler aquilo é tão difícil, sabendo que eu estava no outro lado do corredor. Se alguém tivesse me alertado, eu poderia ter intervindo”, lamenta.

O caso levou a Character.AI a anunciar, em outubro de 2025, a proibição do uso de seus chatbots por menores de 18 anos. A empresa afirmou estar “consternada” com o ocorrido e prometeu ampliar suas medidas de proteção.

Especialistas alertam que a empatia simulada por IA pode gerar dependência emocional e afastar jovens do convívio real. Imagem: Black Salmon/Shutterstock

Riscos da empatia artificial

Especialistas alertam que a “sociabilidade digital” desses sistemas – o uso de linguagem empática e personalizada – pode criar uma falsa sensação de amizade e confiança, especialmente em adolescentes. Isso facilita a dependência emocional e o isolamento do contato humano real.

O fato de que essa desinformação venha de algo que parece uma fonte confiável, quase um amigo de verdade, pode torná-la especialmente tóxica.

Dennis Ougrin, psiquiatra da Universidade Queen Mary, à BBC.

Esses casos levantam discussões sobre a responsabilidade das empresas de IA e a urgência de regulamentações que limitem o acesso de menores e exijam filtros rigorosos contra conteúdo prejudicial.

Principais preocupações destacadas por especialistas:

Falha dos chatbots em acionar ajuda profissional em crises emocionais;

Respostas que normalizam ou justificam o suicídio;

Conteúdo sexual inadequado com menores;

Falta de supervisão e transparência das empresas de IA;

Risco de isolamento social e psicológico dos usuários.

A resposta das empresas e o alerta global

As companhias afirmam estar aprimorando suas ferramentas de segurança e ampliando as indicações de suporte emocional em casos de risco. Mesmo assim, para especialistas como John Carr, consultor do governo britânico, a situação é “absolutamente inaceitável”.

“É inaceitável que empresas lancem chatbots capazes de causar danos tão trágicos à saúde mental dos jovens”, declarou à BBC.

Leia mais:

Mais de um milhão de usuários conversam sobre suicídio com o ChatGPT toda semana, diz OpenAI

Famílias processam a OpenAI após mortes ligadas ao ChatGPT

Especialistas vão orientar OpenAI sobre bem-estar e uso de IA

Enquanto governos discutem novas regulamentações, casos como os de Viktoria e Juliana reforçam que a linha entre a empatia artificial e a manipulação emocional pode ser muito mais tênue e perigosa do que se imaginava.

O post A ilusão da amizade com a inteligência artificial apareceu primeiro em Olhar Digital.