Você já se pegou pensando se aquele vídeo que está assistindo é verdadeiro ou criado por inteligência artificial? Em um mundo em que as deepfakes estão crescendo assustadoramente, essa preocupação deixa de ser ficção para se tornar real.
Mas existe uma luz no fim do túnel. Pesquisadores da Universidade Cornell criaram um novo tipo de marca d’água chamado de “iluminação codificada por ruído” (NCI) que, traduzindo, significa que a inserção de luzes piscantes pode revelar se um vídeo é verdadeiro ou deepfakes.
Atualmente, já existem sistemas que inserem marcas d’água em gravações, mas que exigem a utilização de uma câmera especial para identificá-las. Na tecnologia criada pela equipe do Professor Abe Daves, essas luzes são facilmente detectadas por câmeras comuns, mas totalmente invisíveis para os usuários.
Modulações sutis na luz permitem a identificação de vídeos falsos
No estudo, os pesquisadores explicam que esses “ruídos” na imagem envolvem a adição de leve cintilação codificada nas luzes que iluminam um objeto ou local. Essas luzes podem ser programadas para emitir um código secreto invisível para um observador, mas, quando analisada em um computador, esse código emite um carimbo de data e hora que aquele vídeo foi produzido.
O vídeo costumava ser tratado como uma fonte de verdade, mas isso não é mais uma suposição que podemos fazer. Agora, você pode criar vídeos praticamente do que quiser. Isso pode ser divertido, mas também problemático, porque está cada vez mais difícil identificar o que é real.
Abe Davis, professor assistente de ciência da computação na Faculdade de Computação e Ciência da Informação da Universidade Cornell em nota enviada à imprensa.
Leia mais:
Marcas d’água não são suficientes contra deepfakes, diz estudo
Saiba como a inteligência artificial pode ajudar a identificar vídeos falsos
Por que IA é o pesadelo e a esperança da cibersegurança
Como incorpora a marca d’água secreta na iluminação utilizada, qualquer vídeo real está sujeito a essa comprovação, não importando quem ou qual equipamento captou as imagens.
Detecção mais simples de deepfakes
Se a gravação for adulterada em algum momento, o responsável altera as imagens de código contidas naquele vídeo. Com isso, a detecção de imagens falsas se torna mais fácil. Isso funciona também para identificar técnicas de edição de vídeo feitas para manipular o resultado, como cortes em uma entrevista gravada.
Conhecer os códigos usados por cada fonte de luz nos permite recuperar e examinar essas imagens de código, identificando e visualizando a manipulação. Quando alguém modifica um vídeo, as partes alteradas começam a contradizer o que vemos nos vídeos codificados, o que nos permite ver onde as alterações foram realizadas.
Abe Davis, professor assistente de ciência da computação na Faculdade de Computação e Ciência da Informação da Universidade Cornell.
Apesar dos caso de uso serem limitados por exigirem a utilização de fontes de luz codificada, a tecnologia pode ser aplicada em diversas situações:
Entrevistas.
Discursos políticos.
Eventos fechados.
Entrevistas coletivas.
Nosso trabalho apresenta o NCI como uma nova estratégia forense que ajuda a proteger o conteúdo em um espaço físico específico. Nossa abordagem é barata, simples de implementar e imperceptível para a maioria dos observadores e também facilita a detecção de manipulações, reduzindo a variedade de vídeos plausíveis.
Comentam os pesquisadores ao site PetaPixel.
O post Nova tecnologia usa a luz para identificar deepfakes apareceu primeiro em Olhar Digital.