O Windows 11 está prestes a ganhar agentes de IA capazes de executar tarefas de forma autônoma, mas essa novidade levanta preocupações. A Microsoft reconhece que esses sistemas podem abrir novas brechas de segurança e tenta equilibrar acesso, controle e proteção para os usuários.
Os recursos ainda estão em fase experimental, lembra a ArsTechnica, e são restritos ao Windows Insider, mas já mostram como a empresa pretende integrar IA generativa ao núcleo do sistema.
Agentes que fazem “tarefas por você”, mas que também podem errar
A Microsoft vem falando em “agentes” há meses, descrevendo-os como assistentes capazes de organizar arquivos, marcar reuniões e até enviar e-mails sem que o usuário precise acompanhar tudo de perto. A ideia é que o novo Copilot Actions atue como “um colaborador digital ativo que pode executar tarefas complexas para você”.
Mas, como qualquer IA, esses agentes podem cometer erros, confundir ações e até parecer confiantes quando não sabem o que estão fazendo. O problema se agrava se alguém mal-intencionado conseguir dar instruções indevidas ao sistema. A própria Microsoft reconhece que isso representa “novos riscos de segurança”.
Como a Microsoft tenta controlar o risco
Para conter possíveis problemas, a empresa está implantando uma série de barreiras internas. Por enquanto, os recursos são opcionais e vêm desativados por padrão nas versões de teste.
Os agentes terão:
Contas de usuário próprias, separadas do usuário real.
Acesso limitado ao sistema, com permissões específicas.
Área de trabalho isolada, evitando interferência direta na tela do usuário.
Registros obrigatórios de atividades, com histórico de ações.
Solicitações de permissão visíveis e controláveis.
A Microsoft afirma que “todas as ações de um agente são observáveis e distinguíveis daquelas realizadas por um usuário”, e que os usuários poderão ver uma lista das etapas antes de o agente executar tarefas complexas.
Mesmo assim, agentes poderão solicitar acesso de leitura e gravação aos principais diretórios da conta — como Documentos, Downloads, Área de Trabalho, Imagens, Música e Vídeos — e terão acesso a todos os aplicativos instalados para todos os usuários do PC.
A empresa cita ainda o risco de “injeção entre prompts (XPIA)”, quando elementos maliciosos inseridos em documentos ou interfaces podem sobrepor as instruções do agente, causando ações indesejadas, desde exfiltração de dados até instalação de malware.
Lição do passado e novo rumo do Copilot
O fato de os recursos estarem desativados por padrão, e de haver um documento extenso explicando riscos e precauções, mostra que a Microsoft tenta evitar repetir o que aconteceu com o controverso Windows Recall, alvo de críticas por questões de segurança.
Leia mais:
Bug bizarro faz Gerenciador de Tarefas se multiplicar no Windows 11
Bug no Windows 10 exibe aviso falso de fim de suporte; veja o que fazer
3 recursos escondidos no Windows 11 que você deveria usar
A expectativa é que esses recursos continuem opt-in quando chegarem ao público geral. Caso contrário, podem se tornar mais uma configuração que o usuário precisará alterar manualmente para evitar que recursos de nuvem e IA interfiram no uso diário do sistema.
Enquanto isso, a empresa também trabalha no lado mais “amigável” da IA. O Copilot deve receber melhorias de acessibilidade, incluindo comandos de voz aprimorados e até um personagem animado chamado “Mico”, inspirado no clássico Clippy, para tornar a interação mais humana.
O post Windows 11 quer fazer tarefas sozinho – e isso pode ser um problema apareceu primeiro em Olhar Digital.






