Uma nova frente de segurança digital adota a estratégia de “combater fogo com fogo” para frear o avanço de fraudes com uso de inteligência artificial (IA) envolvido. Startups especializadas, como Reality Defender, Pindrop e GetReal, desenvolvem seus próprios deepfakes e os usam em treinamentos de algoritmos para torná-los capazes de identificar fraudes em áudio e vídeo.
O foco principal é blindar grandes corporações contra golpes que usam IA para clonar vozes e rostos e, no fim, autorizar transações financeiras ilícitas, segundo o site The Verge.
O surgimento desse setor é uma resposta direta à popularização de ferramentas de IA generativa, que tornaram a criação de conteúdos falsos um processo praticamente sem barreiras técnicas.
Atualmente, o maior impacto dessas tecnologias de detecção ocorre no ambiente corporativo, no qual golpes aplicados contra empresas podem resultar em prejuízos superiores a US$ 1 milhão (aproximadamente R$ 5 milhões) numa única transferência fraudulenta.
(Para quem não sabe: Deepfake é quando se usa IA para criar áudios e imagens falsas extremamente realistas para fingir ser outra pessoa.)
Treinamento usa IA para deixar IA mais capaz de distinguir real do manipulado
A Reality Defender usa o que chama de “modelo baseado em inferência” para fazer as detecções.
O sistema funciona sob uma lógica de “aluno e professor”: os desenvolvedores apresentam uma vasta quantidade de arquivos reais e manipulados para que a IA aprenda a categorizar as diferenças.
Segundo o CTO da empresa, Alex Lisle, esse método permite que o software identifique falhas e padrões inconsistentes que seriam invisíveis para o olho ou ouvido humano.
Testes práticos indicam que, embora a tecnologia de voz ainda enfrente dificuldades para enganar familiares próximos, que possuem referências auditivas muito íntimas, ela já é eficaz o suficiente para ludibriar colegas de trabalho ou sistemas bancários.
Para você ter ideia: em experimentos de laboratório, foram necessários apenas nove segundos de áudio e dados coletados em redes sociais para criar um agente de IA convincente o suficiente para manter diálogos em tempo real.
Um dos maiores desafios técnicos dessa “corrida armamentista” digital é o equilíbrio entre velocidade e qualidade. Para que um deepfake de áudio responda instantaneamente numa ligação, ele costuma sacrificar a nitidez sonora.
Por outro lado, modelos de alta fidelidade, que soam quase idênticos ao original, ainda exigem um tempo de processamento maior para serem gerados, o que dificulta sua aplicação em interações ao vivo.
Fraudes e ‘máscaras digitais’ ameaçam segurança de grandes empresas
O cenário de crimes cibernéticos atingiu um nível “industrial“, com fraudadores utilizando modelos de linguagem para mapear estruturas organizacionais inteiras.
Criminosos extraem nomes e cargos de redes profissionais como o LinkedIn e coletam amostras de voz no TikTok ou Facebook para criar um banco de dados de cada funcionário. Com essas informações, executam ataques em massa, contatando colaboradores de diversos setores.
A Pindrop identificou o uso crescente de “máscaras digitais” em processos seletivos e reuniões via Zoom. Nesses casos, o golpista usa a IA para alterar suas feições em tempo real, assumindo outra identidade. E táticas simples de verificação, como pedir para a pessoa passar a mão na frente do rosto para causar uma falha visual na IA, já não funcionam.
Os modelos atuais são tão sofisticados que conseguem renderizar mãos e movimentos complexos sem distorções, o que torna a manipulação praticamente imperceptível aos olhos.
Como o cidadão comum ainda não tem acesso fácil a softwares de detecção, o futuro dessa tecnologia deve seguir o caminho dos antivírus.
Especialistas consultados pelo The Verge preveem que a proteção contra deepfakes será integrada diretamente em navegadores e provedores de e-mail.
Assim, arquivos e comunicações seriam escaneados automaticamente em busca de sinais de manipulação antes mesmo de chegarem ao usuário final. Seria uma camada de defesa nativa contra a desinformação.
O post Startups usam deepfakes para ensinar IAs a não serem enganadas por… deepfakes apareceu primeiro em Olhar Digital.






