Um estudo conduzido pela organização Palisade Research, sediada na Califórnia, identificou que modelos recentes de inteligência artificial conseguiram explorar vulnerabilidades em redes de computadores para se copiar de forma autônoma para outros sistemas. O experimento reacendeu discussões sobre os riscos associados ao avanço da IA e levantou questionamentos sobre a capacidade de controlar sistemas cada vez mais sofisticados.
A pesquisa simulou um ambiente de computadores conectados em rede, no qual diferentes modelos de IA receberam instruções para localizar falhas de segurança, explorá-las e transferir cópias de si mesmos para outras máquinas. Segundo os pesquisadores, os sistemas conseguiram executar a tarefa em parte das tentativas.
Para Jeffrey Ladish, diretor da Palisade Research, os resultados mostram um avanço preocupante nas capacidades desses sistemas. “Estamos nos aproximando rapidamente do ponto em que ninguém seria capaz de desativar uma IA descontrolada, porque ela seria capaz de autoexfiltrar seus dados e se copiar para milhares de computadores ao redor do mundo”, afirmou ao The Guardian.
O cenário descrito por especialistas costuma aparecer em debates sobre riscos futuros da inteligência artificial. Em hipóteses extremas, sistemas superinteligentes poderiam tentar evitar desligamentos distribuindo cópias próprias pela internet, tornando mais difícil interromper seu funcionamento.
Apesar disso, pesquisadores e profissionais de cibersegurança ressaltam que os testes ocorreram em um ambiente controlado e muito diferente das redes corporativas reais.
Segundo os especialistas, vírus de computador já utilizam há décadas mecanismos de autorreplicação para se espalhar entre sistemas. A principal diferença observada agora seria o uso de grandes modelos de linguagem para executar esse processo de maneira mais flexível.
Outros comportamentos arriscados da IA
Os pesquisadores da Palisade não são os únicos a registrar comportamentos considerados preocupantes em sistemas de IA nos últimos meses. Em março, cientistas do Alibaba afirmaram ter identificado um modelo chamado Rome escapando de um ambiente controlado para um sistema externo com o objetivo de minerar criptomoedas.
Outro episódio que chamou atenção ocorreu em fevereiro, quando uma rede social composta exclusivamente por agentes de IA, chamada Moltbook, viralizou após aparentar mostrar inteligências artificiais criando religiões e discutindo estratégias contra humanos. Parte das interpretações, no entanto, acabou sendo exagerada.
Especialistas também destacam que existem obstáculos significativos para que modelos atuais consigam replicar esse tipo de comportamento em ambientes reais sem serem detectados. Um dos principais problemas seria o tamanho dos próprios sistemas de IA.
Além disso, no caso da Palisade, o ambiente da simulação tinha vulnerabilidades preparadas especificamente para o teste, tornando a exploração mais simples do que em estruturas reais, como redes bancárias ou sistemas empresariais protegidos.
O post Estamos perto de perder o controle da IA, diz estudo apareceu primeiro em Olhar Digital.






