O Google anunciou ter identificado e bloqueado pela primeira vez um exploit zero-day desenvolvido com auxílio de inteligência artificial (IA).
Segundo o Google Threat Intelligence Group (GTIG), “atores proeminentes de crimes cibernéticos” planejavam usar a vulnerabilidade para um “evento de exploração em massa” que permitiria contornar a autenticação de dois fatores em uma ferramenta de administração de sistemas web de código aberto não identificada.
Os pesquisadores do Google encontraram indícios no script Python usado no exploit que indicavam assistência de IA, incluindo um “score CVSS alucinado” e formatação “estruturada e didática” consistente com dados de treinamento de modelos de linguagem. O exploit explora “uma falha lógica semântica de alto nível onde o desenvolvedor codificou uma suposição de confiança” no sistema 2FA da plataforma.
A descoberta ocorre após semanas de preocupações sobre as capacidades de modelos de IA focados em cibersegurança, como o Mythos, da Anthropic, e uma vulnerabilidade Linux recentemente divulgada que foi descoberta com assistência de inteligência artificial.
Leia mais:
5 melhores cursos de IA para iniciantes
7 aplicativos que usam IA para você testar no dia a dia
Pesquisadores acham um jeito de fazer IA admitir quando não tem certeza de algo
Primeira evidência de IA em ataques cibernéticos
Esta é a primeira vez que o Google encontrou evidências de que IA estava envolvida em um ataque desse tipo, embora os pesquisadores observem que “não acreditam que o Gemini foi usado“;
O Google afirma ter conseguido “interromper” este exploit específico, mas também diz que hackers estão cada vez mais usando inteligência artificial para encontrar e explorar vulnerabilidades de segurança;
O relatório também menciona a IA como alvo de atacantes, afirmando que “o GTIG observou adversários cada vez mais direcionando os componentes integrados que concedem utilidade aos sistemas de inteligência artificial, como habilidades autônomas e conectores de dados de terceiros”;
O documento do Google detalha ainda como hackers estão usando “jailbreaking direcionado por persona” para fazer a IA encontrar vulnerabilidades de segurança, como um exemplo de prompt que instrui a IA a fingir ser um especialista em segurança;
Os hackers também estão alimentando modelos de IA com repositórios inteiros de dados de vulnerabilidades e usando OpenClaw de maneiras que sugerem “interesse em refinar payloads gerados por IA dentro de configurações controladas para aumentar a confiabilidade do exploit antes da implantação”.
O post Google intercepta primeiro ataque zero-day criado com IA apareceu primeiro em Olhar Digital.






