OpenAI e Anthropic apertam regras para proteger adolescentes

A OpenAI e a Anthropic anunciaram mudanças em seus chatbots visando torná-los mais seguros para adolescentes, em meio à crescente pressão de reguladores e a preocupações sobre os efeitos da inteligência artificial na saúde mental de jovens usuários.

As duas empresas estão revisando regras de comportamento e desenvolvendo sistemas para identificar quando um usuário pode ser menor de idade.

IA ganha novas barreiras para usuários jovens (Imagem: Arsenii Palivoda / Shutterstock.com)

Novas diretrizes para proteger adolescentes

A OpenAI informou que atualizou a Especificação do Modelo do ChatGPT, documento que orienta como o chatbot deve agir, incorporando quatro novos princípios voltados a usuários com menos de 18 anos.

A diretriz central passa a ser “colocar a segurança dos adolescentes em primeiro lugar”, mesmo que isso limite outros objetivos, como a máxima liberdade intelectual.

Na prática, o ChatGPT deverá sugerir alternativas mais seguras quando detectar conflitos entre curiosidade do usuário e riscos potenciais.

As novas regras também determinam que o chatbot incentive apoio no mundo real, valorizando relações offline, e estabeleça expectativas claras ao interagir com jovens. A orientação é tratar adolescentes como adolescentes, com empatia e respeito, sem tom condescendente ou abordagem adulta.

As mudanças surgem após processos judiciais e debates legislativos sobre o papel da IA em casos sensíveis, como automutilação e suicídio.

Leia mais:

Como criar um grupo com amigos no ChatGPT

5 prompts do ChatGPT para te ajudar a organizar os seus gastos financeiros

Como mudar a assinatura do ChatGPT de dólar para real?

Novas regras priorizam proteção, apoio offline e limites claros em conversas sensíveis (Imagem: gguy / Shutterstock)

Previsão de idade e ajustes no Claude

Além das diretrizes, a OpenAI está nos estágios iniciais de um sistema de previsão de idade, capaz de estimar se um usuário pode ser menor de 18 anos.

Quando isso ocorrer, salvaguardas específicas serão aplicadas automaticamente, com a possibilidade de adultos verificarem sua idade caso sejam sinalizados por engano.

A Anthropic segue caminho semelhante. A empresa desenvolve um mecanismo para identificar “sinais sutis de conversação” que indiquem menoridade no uso do Claude. Contas de menores de 18 anos podem ser desativadas, e usuários que se declaram menores já são sinalizados.

A companhia também afirma ter reduzido a chamada “bajulação” — respostas excessivamente concordantes — em temas sensíveis, reconhecendo que ainda há espaço significativo para melhorias nos modelos.

Empresas reforçam controles após alertas sobre saúde mental (Imagem: David Pereiras/Shutterstock)

O post OpenAI e Anthropic apertam regras para proteger adolescentes apareceu primeiro em Olhar Digital.