A Anthropic atualizou a política de uso de seu chatbot Claude, em resposta a crescentes preocupações com segurança cibernética e o uso indevido da IA.
A nova versão proíbe especificamente o desenvolvimento de armas de destruição em massa, incluindo explosivos de alto poder, armas biológicas, químicas, nucleares e radiológicas (QBRN), além de manter restrições já existentes sobre outros materiais perigosos.
Novas regras e políticas
A atualização também introduz regras rigorosas contra o uso do Claude para comprometer computadores ou sistemas de rede, prevenir exploração de vulnerabilidades, criação de malware e ataques cibernéticos.
Ferramentas como o Uso do Computador e o Código Claude, que permitem ao modelo assumir o controle de sistemas ou se integrar diretamente a terminais de desenvolvedores, são citadas como potenciais riscos.
Além das medidas de segurança, a empresa flexibilizou sua política em relação a conteúdo político.
Agora, o Claude só é proibido para casos enganosos ou que possam prejudicar processos democráticos, como segmentação de eleitores e campanhas manipulativas.
Leia mais:
ChatGPT vs Claude.AI: qual IA é melhor?
Claude.AI: como usar inteligência artificial
Quais são as principais empresas de Inteligência Artificial do mundo
Medidas de proteção
Segundo a Anthropic, suas salvaguardas de Nível 3 de Segurança de IA, implementadas em maio junto ao modelo Claude Opus 4, visam impedir abusos em escala e proteger tanto usuários quanto o público em geral.
Com as mudanças, a empresa busca equilibrar o uso seguro da IA com a liberdade para aplicações legítimas, ao mesmo tempo em que responde a preocupações sobre armas, cibersegurança e influência política.
O post Anthropic endurece regras de segurança do Claude apareceu primeiro em Olhar Digital.