Marcas d’água não são suficientes contra deepfakes, diz estudo

As chamadas deepfakes são vídeos, áudios ou imagens extremamente realistas, mas que, na verdade são falsos. Elas ganharam força a partir dos recentes avanços tecnológicos, trazendo uma série de novos riscos.

Por conta disso, pesquisadores do mundo todo buscam formas de rotular estes conteúdos, uma tarefa nada fácil. Segundo uma pesquisa do Instituto de Segurança Cibernética e Privacidade da Universidade de Waterloo, no Canadá, o uso de marcas d’água, por exemplo, pode não ser suficiente.

Vídeos, áudios e imagens extremamente realistas podem criar graves problemas (Imagem: Wright Studio/Shutterstock)

Ferramenta pode eliminar marcadores

A ideia é usar o marcador para deixar claro que aquele conteúdo foi gerado por inteligência artificial. Empresas como OpenAI, Meta e Google oferecem marcas d’água codificadas e invisíveis como solução para o problema.

Segundo o trabalho, no entanto, elas podem ser removidas sem que o usuário perceba qualquer alteração. Para isso, os pesquisadores criaram a ferramenta UnMarker, capaz de eliminar com sucesso qualquer marcador.

Vários métodos têm sido utilizados para identificar deepfakes (Imagem: Panchenko Vladimir/ Shutterstock)

Esta é a primeira ferramenta prática e universal que pode remover marcas d’água em configurações do mundo real. O diferencial da tecnologia é que ela não requer nenhum conhecimento do algoritmo de marca d’água, nenhum acesso a parâmetros internos e nenhuma interação com o detector.

Se pudermos descobrir isso, os agentes mal-intencionados também poderão. A marca d’água está sendo promovida como essa solução perfeita, mas mostramos que essa tecnologia é quebrável. Deepfakes ainda são uma grande ameaça. Vivemos em uma era em que você não pode mais confiar no que vê.

Andre Kassis, principal autor da pesquisa

Leia mais

ONU alerta para riscos de deepfakes e pede ação global contra desinformação

Este novo recurso usa IA para identificar deepfakes

Lei endurece punição para uso criminoso de IA contra mulheres

Criminosos já estão fazendo uso da tecnologia (Imagem: Vitoria Gomez/Olhar Digital)

Deepfakes se tornaram um grave problema

De acordo com o Entrust Cybersecurity Institute, foi registrado um caso de deepfake a cada cinco minutos em 2024.

Já um estudo da Deloitte aponta que as imagens, áudios e vídeos manipulados estão se tornando cada vez mais difíceis de detectar.

Esta pesquisa revelou que 59% dos entrevistados têm dificuldade em diferenciar conteúdos criados por humanos daqueles gerados por IA.

Neste cenário, cerca de 84% das pessoas familiarizadas com a tecnologia defendem que os conteúdos gerados pela inteligência artificial deveriam ser rotulados.

No entanto, um entendimento sobre o assunto ainda parece estar longe e o mau uso da ferramenta pode gerar graves prejuízos.

O post Marcas d’água não são suficientes contra deepfakes, diz estudo apareceu primeiro em Olhar Digital.