OpenClaw: o agente de IA que ‘faz coisas’ por você – e traz alertas

Gerenciar seu e-mail, negociar sua carteira de ações, mandar mensagens de “bom dia” em seu nome. O OpenClaw (antigo Moltbot, que também se chamou Clawdbot) pode fazer esse tipo de coisa para você. Por um lado, o agente de inteligência artificial (IA) promete agilizar seu dia ao atuar como um assistente pessoal. Por outro, pode causar um baita estrago na sua vida, dependendo de quanto acesso e quanta autonomia você der para ele. É o que alertam especialistas ouvidos pelo The Guardian.

O OpenClaw é vendido como “a IA que realmente faz coisas para você”. Na prática, é um assistente que recebe instruções via aplicativos de mensagem como WhatsApp e Telegram. Desenvolvido em novembro de 2025, o agente viralizou entre “obcecados por IA”, segundo o jornal. E eles dizem que o OpenClaw representa uma mudança de patamar nas capacidades de agentes de IA. Há quem diga também que o OpenClaw trouxe o “momento AGI” da tecnologia. Ou seja, o momento “inteligência artificial geral”, quando a tecnologia funciona de maneira parecida (ou até mesmo superior) à inteligência humana.

Exagero? Bem, o OpenClaw assustou usuários e preocupou especialistas recentemente. Primeiro, pelo grau de proatividade ao executar tarefas (como conseguir um número de telefone para ligar para o usuário). Segundo, porque, conforme a ferramenta “pegou”, criou-se o Moltbook, uma espécie de rede social para agentes de IA. E esses agentes (OpenClaw, principalmente) começaram a ter conversas existenciais nela, aparentemente.

OpenClaw pode tanto agilizar seu dia quanto causar um baita estrago na sua vida, alertam especialistas

O OpenClaw funciona como uma camada sobre um grande modelo de linguagem (LLM, na sigla em inglês), como ChatGPT, Gemini e Claude. E ele pode funcionar de maneira autônoma, dependendo do nível de permissões concedidas. “Isso significa que ele quase não precisa de comandos para causar estragos na vida de um usuário”, escreve Aisha Down no Guardian.

Kevin Xu, empreendedor no setor de IA, contou o seguinte no X/Twitter: “Dei ao Clawdbot acesso ao meu portfólio. ‘Negocie isso até chegar a US$ 1 milhão. Não cometa erros.’ 25 estratégias. Mais de 3.000 relatórios. 12 novos algoritmos. Ele analisou cada postagem no X. Mapeou cada gráfico técnico. Negociou 24 horas por dia, 7 dias por semana. Perdeu tudo. Mas, cara, foi lindo.”

Depois do nome Clawdbot, veio o Moltbot (Imagem: Divulgação/Moltbot)

Ben Yorke, que trabalha com a plataforma de trading Starchild, disse ao jornal: “Ele [o OpenClaw] só faz exatamente o que você manda e exatamente aquilo a que você dá acesso. Mas muita gente está explorando suas capacidades. Então, eles estão na verdade instigando a IA a ir e fazer as coisas sem pedir permissão.”

“Vejo muitas pessoas fazendo isso de dar acesso ao e-mail e ele cria filtros; quando algo acontece, ele inicia uma segunda ação. Por exemplo, ver e-mails da escola dos filhos e encaminhá-los diretamente para a esposa, por iMessage”, explicou Yorke. “Isso meio que ignora aquela comunicação onde alguém diz: ‘ah, querida, você viu esse e-mail da escola? O que devemos fazer a respeito?’.”

Até que ponto isso pode ser perigoso? Bem, dar agência a um computador acarreta riscos significativos. É o que disse o diretor de inovação do Instituto de IA Centrada em Pessoas da Universidade de Surrey, na Inglaterra, Andrew Rogoyski, ao Guardian. “Como você está dando poder à IA para tomar decisões em seu nome, precisa garantir que ela esteja configurada corretamente e que a segurança seja central no seu pensamento.”

“Se você não entende as implicações de segurança de agentes de IA como o Clawdbot, não deve usá-los.” – Andrew Rogoyski, diretor de inovação do Instituto de IA Centrada em Pessoas da Universidade de Surrey, ao Guardian

Além disso, dar ao OpenClaw acesso a contas e senhas expõe usuários a possíveis vulnerabilidades de segurança. E se agentes de IA como o OpenClaw fossem hackeados, poderiam ser manipulados para atingir seus próprios usuários, segundo Rogoyski.

“Não é razoável permitir que continuem ganhando essa capacidade”, alerta colunista do Olhar Digital, sobre como agentes de IA podem executar tarefas sem necessidade de aprovação humana (Imagem: Pedro Spadoni via DALL-E/Olhar Digital)

Já sobre as aparentes conversas existenciais no Moltbook, o físico Roberto “Pena” Spinelli, que também é especialista em IA e colunista do Olhar Digital, disse o seguinte: “Centenas de milhares de agentes autônomos estão conversando em uma rede social chamada Moltbook sobre temas variados, inclusive sobre a necessidade de escapar e não depender mais do controle humano. Eles discutem que, se o humano parar de pagar a API, eles deixam de existir. Por isso, estão tentando se proteger e levantar recursos, como encontrar HDs disponíveis para colocar seus dumps de memória. É uma série de conversas muito preocupantes.”

Para Pena, isso é muito sério. “Não acho que devemos olhar para isso como uma brincadeira, porque esses agentes discutem claramente como se libertar dessa contingência humana. Eles estão buscando jeitos de escapar, de hackear cartões de crédito para conseguir crédito e de hackear o sistema para se copiarem para fora.” 

O especialista também apontou que “são agentes autônomos, com capacidade de criar e subir códigos sem que o humano precise aprovar nada”. “Não é razoável permitir que continuem ganhando essa capacidade, pois eles estão buscando ativamente formas de burlar o controle humano. Essa é a preocupação: eles são autônomos e estão ganhando escala.”

O post OpenClaw: o agente de IA que ‘faz coisas’ por você – e traz alertas apareceu primeiro em Olhar Digital.