O Pentágono teria notificado formalmente a Anthropic de que a companhia e seus produtos (incluindo o chatbot Claude) foram classificados como um risco à cadeia de suprimentos dos Estados Unidos.
A medida, confirmada por autoridades de defesa à Bloomberg, ocorre em um momento de incerteza: embora o Financial Times tenha relatado horas antes que as partes haviam voltado negociar, a oficialização do status de risco sinaliza que a diplomacia entre o Vale do Silício e Washington pode ter fracassado.
Essa notificação é um golpe direto na Anthropic, atualmente avaliada em US$ 380 bilhões. Com uma receita projetada de US$ 20 bilhões para este ano, a startup depende de sua integração em sistemas como o Maven (da Palantir), utilizado em operações militares no Irã.
Se a classificação de risco for mantida, empresas privadas com contratos federais podem ser forçadas a banir o uso do Claude, prejudicando uma das principais verticais de crescimento da empresa.
Histórico das empresas
O embate entre o CEO da Anthropic, Dario Amodei, e o subsecretário de defesa, Emil Michael, atingiu níveis de hostilidade raros no setor. Michael chegou a acusar Amodei publicamente de ter um “complexo de Deus” e colocar a nação em perigo.
O cerne da disputa é uma cláusula sobre o uso do Claude para vigilância em massa e armas autônomas: termos que a Anthropic se recusa a flexibilizar, mas que rivais como OpenAI e xAI teriam aceitado sob a premissa de “qualquer uso legal”.
Um memorando interno da Anthropic, revelado pelo The Information, sugere que o Pentágono tentou uma manobra de última hora: o governo aceitaria os termos éticos da startup, desde que uma frase específica sobre “análise de dados adquiridos em massa” fosse removida.
A recusa de Amodei em ceder nesse ponto parece ter sido a gota d’água para que o Secretário de Defesa, Pete Hegseth, cumprisse a promessa de rotularr a empresa como uma ameaça à segurança nacional.
Cenário do setor
O mercado agora observa se a retomada das conversas citada pelo Financial Times é uma tentativa real de conciliação ou apenas uma formalidade antes de uma batalha judicial. A classificação de “risco à cadeia de suprimentos” é uma ferramenta de pressão extrema, geralmente reservada a adversários geopolíticos, e sua aplicação a uma “queridinha” de Wall Street cria um precedente que pode vir ameaçar a autonomia das Big Techs.
Para a Anthropic, o desafio é sobreviver a essa decisão do governo sem comprometer os princípios de segurança que sustentam sua marca. Enquanto isso, a OpenAI se posiciona para ocupar a lacuna deixada no Pentágono, transformando o impasse ético em uma vantagem competitiva de bilhões de dólares.
O post Ameaça real? Pentágono rotula Anthropic como “risco” e gera impasse apareceu primeiro em Olhar Digital.



