Pentágono explica por que vê Claude, IA da Anthropic, como risco

O diretor de tecnologia do Departamento de Defesa dos Estados Unidos detalhou publicamente, pela primeira vez, o motivo que levou o órgão a classificar os modelos Claude, da Anthropic, como risco para a cadeia de suprimentos da defesa. A explicação foi dada na quinta-feira (12) por Emil Michael, durante entrevista ao programa “Squawk Box”, da CNBC.

A declaração surge após a decisão do governo dos EUA de aplicar essa designação à empresa e no momento em que a medida é contestada na Justiça. Segundo Michael, a preocupação do Pentágono está relacionada às preferências de política incorporadas ao funcionamento do modelo, que, na avaliação do departamento, poderiam afetar tecnologias utilizadas pelas forças armadas.

Diretor de tecnologia do Departamento de Defesa dos EUA acusou o Claude de “poluir” a cadeia de suprimentos da defesa (Imagem: Ivan Cholakov / Shutterstock.com)

Pentágono explica motivo da classificação

Durante a entrevista, Michael afirmou que os modelos da Anthropic poderiam “poluir” a cadeia de suprimentos da defesa porque carregam uma orientação de políticas definida internamente pela empresa.

De acordo com ele, a presença dessa orientação no sistema poderia afetar a eficácia de tecnologias utilizadas em contextos militares.

“Não podemos ter uma empresa que tenha uma preferência de política diferente incorporada ao modelo, por meio de sua constituição, sua essência, suas preferências de política, poluindo a cadeia de suprimentos para que nossos combatentes recebam armas ineficazes, coletes ineficazes ou proteção ineficaz”, afirmou.

O executivo acrescentou que foi justamente essa avaliação que levou à designação de risco na cadeia de suprimentos.

A decisão é considerada incomum porque, historicamente, esse tipo de classificação tem sido aplicado a empresas ligadas a adversários estrangeiros, e não a companhias norte-americanas.

Empresa processa governo dos EUA

A Anthropic reagiu à medida com uma ação judicial contra a administração de Donald Trump, apresentada na segunda-feira. No processo, a empresa descreve a decisão do governo como “sem precedentes e ilegal”.

A companhia argumenta que a classificação pode causar danos irreparáveis ao seu negócio e colocar em risco centenas de milhões de dólares em contratos.

Anthropic processou o governo Donald Trump, argumentando possíveis danos irreparáveis ao seu negócio pela classificação (Imagem: Joshua Sukoff/Shutterstock)

Michael, por sua vez, afirmou que a decisão não teve caráter punitivo.

“Isso não foi feito para ser punitivo”, disse.

Ele também destacou que o governo representa apenas uma pequena fração da atividade comercial da empresa e rejeitou alegações de que o Departamento de Defesa estaria pressionando empresas a deixar de usar tecnologias da Anthropic.

Segundo o executivo, o departamento não entra em contato com companhias privadas para orientar decisões, desde que essas tecnologias não façam parte da cadeia de suprimentos da defesa.

Leia mais:

ChatGPT vs Claude.AI: qual IA é melhor?

Claude.AI: como usar inteligência artificial

Claude IA: 4 coisas que o chatbot pode fazer que o ChatGPT não consegue

Constituição do Claude está no centro do debate

Fundada em 2021, a Anthropic foi criada por pesquisadores e executivos que deixaram a OpenAI. A empresa ficou conhecida pela família de modelos Claude, adotada por grandes organizações, incluindo o próprio Departamento de Defesa.

Um dos diferenciais do sistema é a chamada “constituição” do Claude, um conjunto de princípios usado para orientar o treinamento do modelo.

“Constituição” do Claude ocupa o centro do debate (Imagem: Mijansk786 / Shutterstock.com)

Segundo a empresa, esse documento tem papel central no funcionamento da IA e define como o sistema deve agir em situações complexas, incluindo o equilíbrio entre honestidade, compaixão e proteção de informações sensíveis.

A versão mais recente dessa constituição foi divulgada em janeiro.

Apesar da classificação do Pentágono, os modelos da Anthropic continuam sendo usados em alguns contextos. A empresa Palantir Technologies, uma das principais contratadas do setor de defesa, confirmou que segue utilizando o Claude.

Michael reconheceu que a substituição da tecnologia não ocorrerá de forma imediata. Segundo ele, o departamento já possui um plano de transição, mas a mudança levará tempo.

“Não é como o Outlook, que você pode simplesmente apagar do seu computador”, afirmou.

O post Pentágono explica por que vê Claude, IA da Anthropic, como risco apareceu primeiro em Olhar Digital.