Práticas de segurança de gigantes da IA ficam aquém dos padrões globais, aponta relatório

Um novo relatório do Future of Life Institute (FLI) revela que empresas de Inteligência Artificial (IA) consideradas de ponta — como Anthropic, Meta, OpenAI e xAI — estão longe de atender às normas internacionais emergentes de segurança. A constatação, publicada nesta quarta-feira (3), acende um alerta sobre o rumo acelerado da IA sem salvaguardas robustas.

Desenvolvimento acelerado vs. falta de controle

Apesar do ritmo intenso de investimento e avanço no desenvolvimento de IAs potentes, inclusive aquelas com ambições de alcançar o nível de “superinteligência”, o estudo identificou que nenhuma das empresas avaliadas apresentou uma estratégia eficaz capaz de garantir o controle desses sistemas avançados.

O estudo foi publicado justamente em um momento no qual cresce a preocupação pública sobre os impactos sociais dessas tecnologias.

Outro ponto é que casos recentes de uso de chatbots que levaram a episódios de autoagressão e suicídio levaram à sensação de urgência sobre o tema.

O avanço acelerado da tecnologia de inteligência artificial, sem as seguranças necessárias, é uma grande preocupação de especialistas (Imagem: IM Imagery / Shutterstock)

Leia mais:

Android 16 recebe megapacote com IA – e Google acelera lançamentos

Mistral amplia portfólio de modelos de IA e aposta em inteligência distribuída

Elon Musk aponta três pilares que, segundo ele, devem guiar o futuro da IA

O alerta de especialistas

Em declaração destacada na Reuters, o presidente do FLI e professor do MIT, Max Tegmark, acendeu um sinal de alerta para o fato das empresas de IA estarem “menos reguladas do que restaurantes”, e ainda assim fazerem lobby contra normas de segurança obrigatórias.

Além disso, o relatório também reforça o apelo por meio de vozes influentes da comunidade científica, como Geoffrey Hinton e Yoshua Bengio, que em outubro pediram a interrupção dos investimentos agressivos e consequentemente o desenvolvimento de IA superinteligente até que existam marcos regulatórios e estruturas seguras para seu uso.

O Google DeepMind foi uma das empresas que se pronunciou sobre o tema
(Imagem: Photo For Everything / Shutterstock)

Reações das empresas

Em resposta a um pedido de nota à Reuters, a big tech Google DeepMind disse que seguirá investindo em segurança e governança à medida que suas tecnologias avançam. Já a xAI reagiu com uma declaração aparentemente automática, como dito pelo portal, afirmando que as críticas da mídia seriam “mentiras”. As demais companhias citadas não se manifestaram imediatamente.

O post Práticas de segurança de gigantes da IA ficam aquém dos padrões globais, aponta relatório apareceu primeiro em Olhar Digital.