Anthropic acusa DeepSeek e outras chinesas de usar Claude para treinar modelos de IA

A corrida global pela liderança no desenvolvimento de inteligência artificial atingiu um novo marco de atrito corporativo e geopolítico. A Anthropic, desenvolvedora do modelo Claude, denunciou nesta segunda-feira (23) o que classificou como “campanhas em escala industrial” de apropriação indevida de sua tecnologia por três grandes empresas chinesas de IA: DeepSeek, Moonshot AI e MiniMax.

De acordo com a reportagem do The Wall Street Journal, o esquema envolveu a criação de cerca de 24.000 contas fraudulentas para extrair sistematicamente as capacidades do modelo americano.

No total, segundo o comunicado da Anthropic, as companhias chinesas teriam realizado mais de 16 milhões de interações com o Claude. O caso vem à tona poucas semanas após a OpenAI, principal rival da Anthropic, enviar um memorando a parlamentares americanos acusando a DeepSeek de utilizar a mesma tática para imitar seus sistemas.

A tática da “destilação” e os alvos do ataque

A estratégia no centro da controvérsia é conhecida no setor como “destilação”. A Anthropic reconhece que o método possui usos legítimos – como a criação de versões menores e eficientes de produtos próprios –, mas ressalta que a prática pode ser explorada de forma ilícita para construir sistemas concorrentes “em uma fração do tempo, e por uma fração do custo”.

A empresa afirmou que os laboratórios estrangeiros miraram especificamente nas “capacidades mais diferenciadas do Claude: raciocínio agêntico, uso de ferramentas e codificação.” A escala e o foco variaram entre as companhias acusadas:

MiniMax: liderou o volume de extração com 13 milhões de interações, focando em codificação agêntica e uso de ferramentas. A Anthropic detectou que a empresa chegou a redirecionar quase metade de seu tráfego para absorver as capacidades do modelo Claude mais recente logo na época de seu lançamento.

Moonshot AI: responsável por mais de 3,4 milhões de interações, a empresa visou o desenvolvimento de agentes de uso de computador, visão computacional e análise de dados.

DeepSeek: realizou 150.000 interações focadas em melhorar sua lógica fundamental e alinhamento. Segundo o The Verge, o objetivo incluía gerar “alternativas seguras contra a censura para questões politicamente sensíveis sobre dissidentes, líderes do partido ou autoritarismo”.

Dados sintéticos: o atalho chinês

O uso de dados sintéticos (gerados por outras IAs) tem sido amplamente adotado na indústria diante da escassez de dados de alta qualidade na internet e do foco em dar aos modelos capacidades proativas (agênticas).

O Wall Street Journal destaca que, quando a DeepSeek ganhou notoriedade no ano passado, surgiram especulações de que a empresa teria usado a destilação para alcançar o nível dos modelos americanos sem ter acesso irrestrito aos chips mais potentes.

Em um artigo de pesquisa atualizado em setembro, a DeepSeek afirmou ter usado exclusivamente páginas da web comuns e e-books no pré-treinamento do seu modelo V3. Contudo, a empresa admitiu que algumas dessas páginas continham “um número significativo de respostas geradas por modelos da OpenAI”, indicando que sua base de conhecimento absorveu dados de outras IAs poderosas de forma indireta. A Moonshot, por sua vez, assumiu o uso de dados sintéticos em um relatório técnico de julho para treinar seu modelo Kimi K2.

Leia também:

Brasil: início de obras do primeiro data center do Sudeste está próximo

O que é um Data Center?

O futuro dos Data Centers pode parecer ficção científica

Segurança nacional e a guerra dos semicondutores

Além do roubo de propriedade intelectual, a extração massiva levanta alertas em Washington. A Anthropic enfatizou que modelos desenvolvidos por destilação ilícita dificilmente retêm as travas de segurança originais, permitindo que “capacidades perigosas possam proliferar com muitas proteções totalmente removidas”.

“Laboratórios estrangeiros que destilam modelos americanos podem então alimentar essas capacidades desprotegidas em sistemas militares, de inteligência e de vigilância”, declarou a Anthropic, alertando que governos autoritários podem usar a tecnologia para “operações cibernéticas ofensivas, campanhas de desinformação e vigilância em massa.”

Para processar essa imensa quantidade de dados extraídos, no entanto, é necessário um poder computacional massivo. É nesse ponto que as acusações da Anthropic colidem diretamente com as recentes políticas de Washington. No mês passado, a administração Trump flexibilizou os controles de exportação, permitindo formalmente que empresas americanas como a Nvidia voltassem a vender chips avançados de IA (como o H200) para a China.

A Anthropic usou a denúncia para criticar essa medida. A companhia argumentou que a escala de extração realizada por DeepSeek, MiniMax e Moonshot “exige acesso a chips avançados”. No comunicado oficial, a startup defendeu que esses ataques “reforçam a justificativa para controles de exportação: o acesso restrito a chips limita tanto o treinamento direto de modelos quanto a escala da destilação ilícita”.

Dmitri Alperovitch, presidente do think tank Silverado Policy Accelerator e cofundador da CrowdStrike, endossou a gravidade da situação em entrevista ao TechCrunch:

Está claro há algum tempo que parte do motivo do rápido progresso dos modelos chineses de IA tem sido o roubo via destilação de modelos de fronteira dos EUA. Agora sabemos disso como um fato

Isso deve nos dar razões ainda mais convincentes para nos recusarmos a vender quaisquer chips de IA para qualquer uma dessas [empresas], o que apenas as beneficiaria ainda mais.

Representantes da DeepSeek, Moonshot e MiniMax não responderam aos pedidos de comentários do TechCrunch.

O post Anthropic acusa DeepSeek e outras chinesas de usar Claude para treinar modelos de IA apareceu primeiro em Olhar Digital.