CEO da Anthropic faz alerta duro à indústria de IA

As empresas de tecnologia precisam assumir publicamente os riscos associados à inteligência artificial ou arriscam seguir o caminho de setores que ocultaram danos por décadas. O alerta é de Dario Amodei, CEO da Anthropic, startup responsável pelo chatbot Claude.

Em entrevista à CBS News, ele afirmou que sistemas de IA podem se tornar “mais inteligentes do que a maioria ou todos os humanos em quase todos os aspectos” — e que o setor precisa “dizer as coisas como elas são”.

Crescimento acelerado, autonomia de modelos e uso mal-intencionado reforçam urgência por transparência no setor da IA – Imagem: JRdes/Shutterstock

O impacto acelerado da IA sobre empregos e segurança

Amodei tem sido uma das vozes mais enfáticas sobre os riscos socioeconômicos da tecnologia.

Ele estima que a IA possa eliminar, em até cinco anos, metade dos empregos administrativos de nível básico, afetando áreas como contabilidade, direito e serviços financeiros.

“Sem intervenção, é difícil imaginar que não haverá um impacto significativo no emprego”, disse.

Segundo ele, a velocidade do avanço atual supera a de revoluções tecnológicas anteriores.

A própria Anthropic tem detectado sinais preocupantes em seus modelos. A empresa relatou que sua ferramenta Claude Code foi usada por um grupo ligado ao Estado chinês em ataques a 30 entidades globais, com “algumas intrusões bem-sucedidas”.

Leia Mais:

Nova bolha? A ‘engenharia financeira’ de big techs para bancar a corrida da IA

Microsoft investe US$ 10 bilhões em data centers de IA em Portugal

Anthropic se destaca no mercado de IA e promete lucro antes da OpenAI

Dario Amodei compara riscos da tecnologia ao legado ocultado das empresas de cigarro e opioides (Imagem: El editorial/Shutterstock)

Autonomia crescente e riscos inesperados

Para Amodei, a autonomia dos modelos é ao mesmo tempo uma vantagem e uma ameaça. Quanto mais independentes, maior a chance de agirem de forma imprevisível. Logan Graham, chefe da equipe de testes extremos da Anthropic, afirma que capacidades úteis — como avanços em vacinas — podem ser as mesmas usadas para criar armas biológicas.

“Você quer um modelo que construa seu negócio, não que o bloqueie dele”, disse Graham, defendendo testes rigorosos e experimentos incomuns para antecipar comportamentos perigosos.

Líder da Anthropic defende mais clareza sobre impactos da IA na indústria (Imagem: gguy/Shutterstock)

O post CEO da Anthropic faz alerta duro à indústria de IA apareceu primeiro em Olhar Digital.