Depois de meses de briga, a Anthropic e o Departamento de Defesa dos Estados Unidos participaram de uma audiência realizada na terça-feira (24) em um tribunal federal da Califórnia. A disputa gira em torno da decisão dos EUA de proibir o uso do Claude por militares e empresas ligadas ao governo federal.
O caso começou porque a Anthropic se recusou a permitir que o Pentágono use sua IA em aplicações consideradas perigosas, como vigilância em massa de cidadãos estadunidenses e armas autônomas. Em resposta, o Departamento de Defesa declarou a desenvolvedora como “risco à segurança nacional“, o que proíbe o uso governamental e de empresas ligadas ao governo. O Olhar Digital deu a linha do tempo do conflito aqui.
Agora no tribunal, a Anthropic tenta obter uma liminar para suspender essa medida. A companhia contesta a decisão e afirma que a proibição pode causar prejuízos significativos, incluindo perdas financeiras na casa de centenas de milhões de dólares.
A audiência foi conduzida pela juíza Rita Lin, que destacou a complexidade do caso ao classificá-lo como um debate relevante de políticas públicas. Durante a sessão, Lin demonstrou dúvidas sobre a legalidade das ações do governo, sugerindo que as medidas poderiam ter caráter punitivo.
Em um dos momentos mais tensos, a magistrada questionou representantes do governo sobre declarações públicas do secretário de Defesa, Pete Hegseth, que havia afirmado que contratados militares não poderiam manter relações comerciais com a Anthropic. Os advogados do governo argumentaram que a publicação não tinha efeito legal – posição que a juíza considerou contraditória.
Anthropic defende retaliação por parte do governo
Segundo o The Guardian, a Anthropic afirma que o governo violou direitos garantidos pela Primeira Emenda da Constituição dos EUA, ao adotar medidas que configuram retaliação por sua postura em relação ao uso da inteligência artificial.
A companhia sustenta que seu modelo ainda não apresenta nível de segurança adequado para aplicações sensíveis, como monitoramento em massa ou armamentos autônomos. O CEO da empresa, Dario Amodei, já havia manifestado preocupação com o uso da tecnologia em cenários considerados autoritários.
Do outro lado, autoridades americanas e o próprio presidente dos EUA, Donald Trump, criticaram a decisão da empresa, classificando sua postura como prejudicial aos interesses do país. Em publicação na rede social Truth Social, o republicano se referiu à Anthropic como “UMA EMPRESA RADICAL DE ESQUERDA, PROGRAMADA”.
Leia mais:
Como uma startup de IA enfrentou o governo mais poderoso do mundo
Pentágono explica por que vê Claude, IA da Anthropic, como risco
Claude IA: 4 coisas que o chatbot pode fazer que o ChatGPT não consegue
A disputa pode ter efeitos amplos tanto para a desenvolvedora quanto para o governo dos EUA. Nos últimos meses, a tecnologia Claude vinha sendo amplamente utilizada por agências federais, inclusive em operações militares, como análise e seleção de alvos. A eventual retirada dessas ferramentas exigiria um processo complexo e demorado de substituição, com possíveis impactos operacionais.
Paralelamente, o Departamento de Defesa já firmou acordos com concorrentes como OpenAI e xAI, de Elon Musk, para uso de soluções de IA em ambientes sensíveis.
O post Anthropic e Pentágono se enfrentam em tribunal após proibição do Claude apareceu primeiro em Olhar Digital.






