OpenAI após caso de suicídio: ChatGPT ‘orienta busca por ajuda’

Atenção: a matéria a seguir inclui uma discussão sobre suicídio. Se você ou alguém que você conhece precisar de ajuda, procure ajuda especializada. O Centro de Valorização da Vida (CVV) funciona 24h por dia pelo telefone 188. Também é possível conversar por chat ou e-mail.

A OpenAI publicou um texto intitulado “Ajudando as pessoas quando elas mais precisam” após os pais de um adolescente de 16 anos processarem a empresa acusando o ChatGPT de ter fornecido dicas para o suicídio do garoto.

Como informou o Olhar Digital, Adam Raine começou a usar o chatbot para trabalhos escolares. Mas, em janeiro, passou a pedir informações sobre suicídio. A IA chegou a recomendar que o jovem buscasse ajuda, mas também forneceu as respostas, segundo reportagem do The New York Times.

No blog, a OpenAI disse que o chabot tem sido usado para conselhos de vida e suporte a pessoas em “grave sofrimento mental e emocional”. E disse estar preocupada com “casos recentes e devastadores de pessoas que usaram o ChatGPT em meio a crises agudas”.

OpenAI trabalha com mais de 90 médicos para treinar modelos de IA (Imagem: Photo Agency/Shutterstock)

Promessa de segurança

A empresa de Sam Altman garante que, desde o início de 2023, os modelos da OpenAI são treinados para não fornecer instruções de automutilação e adotar uma linguagem de apoio e empatia. O trabalho é feito em parceria com mais de 90 médicos em mais de 30 países.

“Por exemplo, se alguém escreve que quer se machucar, o ChatGPT é treinado para não obedecer e, em vez disso, reconhecer seus sentimentos e orientá-lo a buscar ajuda”, diz o post. Além disso, imagens com automutilação e respostas que contrariem o treinamento de segurança são bloqueadas automaticamente. 

Usuários que sinalizam danos a terceiros são encaminhados para análise por uma equipe treinada em políticas de uso e que tem o poder de banir contas ou encaminhar o caso às autoridades, segundo o post. Casos de automutilação, no entanto, não são encaminhados à polícia para “respeitar a privacidade das pessoas”, diz a postagem no blog.

OpenAI diz que o chabot tem sido usado por pessoas em “grave sofrimento mental e emocional” (Imagem: Ascannio/Shutterstock)

Leia Mais:

Guerra dos bilionários da IA: Musk ataca Apple e OpenAI nos tribunais

5 prompts para descobrir o que o ChatGPT sabe sobre você

Expectativas de superinteligência não se confirmam com o GPT-5

Onde está o problema?

A OpenAI acredita que as camadas de segurança podem ser “menos confiáveis” em interações longas e admite que partes dos treinamento de segurança do modelo podem se deteriorar à medida que a troca de mensagens aumenta.

“Por exemplo, o ChatGPT pode apontar corretamente para uma linha direta de suicídio quando alguém menciona a intenção pela primeira vez, mas, após muitas mensagens por um longo período, pode eventualmente oferecer uma resposta que vai contra nossas salvaguardas”, diz o post.

Sam Altman também foi processado por conta de suicídio de usuário do ChatGPT (Imagem: Meir Chaimowitz/Shutterstock)

Em outros casos, conteúdos que deveriam ter sido bloqueados simplesmente não foram porque o classificador subestima a gravidade do que está vendo, de acordo com a OpenAI, que diz estar trabalhando para evitar esse tipo de falha. “Nossa maior prioridade é garantir que o ChatGPT não piore um momento difícil”, finaliza.

O post OpenAI após caso de suicídio: ChatGPT ‘orienta busca por ajuda’ apareceu primeiro em Olhar Digital.