A Anthropic anunciou, nesta quinta-feira (28), que vai começar a usar dados de usuários para treinar seus modelos de inteligência artificial (IA). Entre eles, estão transcrições de conversas e sessões de programação, que poderão ser armazenados por até cinco anos.
Os usuários, no entanto, terão a opção de proibir o uso desses dados. Quem utiliza o chatbot Claude precisa decidir até 28 de setembro se permitirá ou não que a Anthropic aproveite suas informações no treinamento de IA, informou a empresa num post no blog oficial.
A configuração vale apenas para novas conversas e chats retomados, além de sessões de programação. Mesmo quem aceitar o uso dos dados não terá conversas antigas incluídas no treinamento – a menos que volte a interagir com elas.
As mudanças atingem todos os planos do Claude, incluindo Claude Free, Pro e Max, “inclusive quando usam o Claude Code em contas associadas a esses planos”, escreveu a empresa.
Já os planos corporativos ficam de fora: Claude Gov, Claude for Work, Claude for Education e o uso por API, “incluindo via terceiros como Amazon Bedrock e Vertex AI do Google Cloud”.
Treinamento de IA da Anthropic com conversas no Claude: como funciona a escolha
Usuários novos terão que definir sua preferência ao se cadastrarem no Claude. Quem já usa o chatbot verá um pop-up para tomar a decisão. É possível adiar a escolha clicando em “Agora não”, mas a resposta será obrigatória em 28 de setembro.
O problema é que muitos podem clicar em “Aceitar” rapidamente, sem perceber o que está em jogo.
Na tela, em letras grandes, está escrito: “Atualizações nos Termos e Políticas de Consumo”. Logo abaixo, lê-se: “Uma atualização dos nossos Termos de Consumo e Política de Privacidade entrará em vigor em 28 de setembro de 2025. Você pode aceitar os termos atualizados hoje.” No fim da janela, um botão preto com o texto “Aceitar” ocupa destaque.
Mais abaixo, em letras pequenas, aparece a frase: “Permitir o uso de seus chats e sessões de programação para treinar e melhorar os modelos de IA da Anthropic”. Ao lado, há uma chave de ativar/desativar, configurada por padrão em “Ativado”.
Como optar por não participar
Para recusar, é preciso mudar a chave para “Desativado” no momento em que o pop-up aparecer. Caso o usuário já tenha aceitado sem notar, é possível alterar depois: basta ir em Configurações > Privacidade > Configurações de Privacidade e mudar para “Desativado” a opção “Ajudar a melhorar o Claude”.
A Anthropic explica que a escolha pode ser modificada a qualquer momento, mas só vale para dados futuros. Não é possível retirar informações que já tenham sido usadas para treinar os modelos.
Segundo a companhia, há medidas para proteger a privacidade dos usuários. “Usamos uma combinação de ferramentas e processos automatizados para filtrar ou ofuscar dados sensíveis”, escreveu a Anthropic no post. A empresa também reforçou: “Não vendemos dados dos usuários a terceiros.”
Leia mais:
Anthropic fecha acordo para encerrar processo por pirataria
ChatGPT 4 ou 5? Veja um comparativo de qual o melhor
5 prompts para descobrir o que o ChatGPT sabe sobre você
Anthropic e OpenAI avaliam segurança uma da outra
Apesar da disputa no setor, a OpenAI e a Anthropic decidiram avaliar os sistemas uma da outra e divulgar os resultados. Os relatórios apontaram falhas e caminhos para melhorar os testes de segurança em IA.
A Anthropic analisou modelos da OpenAI em critérios como bajulação, denúncia, autopreservação e apoio ao uso indevido. Os modelos o3 e o4-mini tiveram desempenho próximo aos da própria Anthropic, mas o GPT-4o e o GPT-4.1 levantaram preocupações sobre possíveis usos indevidos. A empresa também identificou a bajulação como problema recorrente, com exceção do o3.
Do lado da OpenAI, os testes com os modelos Claude avaliaram hierarquia de instruções, jailbreaking, alucinações e manipulação. O desempenho foi considerado consistente, com alta taxa de recusa em situações de incerteza, o que reduz a chance de respostas equivocadas.
A iniciativa chama atenção porque a OpenAI teria violado os termos de serviço da Anthropic ao usar acesso ao Claude no desenvolvimento de modelos GPT, o que levou ao bloqueio desse acesso no início do mês.
Ainda assim, as empresas optaram por compartilhar avaliações em nome da segurança, tema que ganha peso diante da pressão por regras mais claras para proteger usuários, especialmente menores de idade.
O post Anthropic quer usar suas conversas para treinar o Claude – mas tem como impedir apareceu primeiro em Olhar Digital.