O avanço das ferramentas de inteligência artificial (IA) transformou completamente a relação do público com o que vê na tela. Mesmo pessoas jovens e habituadas ao ambiente digital têm sido enganadas por vídeos hiper-realistas, que se aproximam cada vez mais da linguagem visual do mundo real. Nesse cenário, fica a dúvida sobre até que ponto ainda conseguimos identificar quando uma imagem é falsa.
Para o especialista em Segurança da Informação Thiago Guedes Pereira, distinguir com segurança já não é algo acessível ao usuário comum. “A fronteira ficou extraordinariamente tênue. A capacidade humana de diferenciar conteúdo genuíno de sintetizado colapsou”, afirma.
Ele lembra que, até poucos anos atrás, era possível perceber falhas evidentes em vídeos criados por IA, como sombras irregulares e sincronização labial falha.
“Em 2025, esses problemas praticamente desapareceram. Humanos identificam vídeos falsos de alta qualidade corretamente apenas 24,5% das vezes. Isso significa que três em cada quatro vídeos falsos enganam a percepção visual humana”, destaca.
Leia também
Golpistas alteram vídeos com IA e pedem dinheiro em falsas campanhas
IAs cada vez mais realistas viralizam na web. Entenda
“Apodrecimento cerebral”: vídeos de IA dominam as redes. Entenda
Vídeo: homem usa advogado criado por IA e é detonado por juíza
Segundo o especialista, nem mesmo sistemas automáticos garantem precisão absoluta. “Ferramentas de detecção são mais eficientes em laboratório, mas no mundo real a efetividade cai para algo entre 45% e 50%. Cada novo modelo lançado cria um desafio novo”, ressalta.
O que observar quando o vídeo parece perfeito?
Quando a produção é sofisticada e não entrega erros visuais, o caminho é desconfiar do contexto. O advogado Daniel Becker, especialista em proteção de dados e IA, explica que pessoas mal-intencionadas contam com a reação emocional do público.
“Vídeos fabricados surgem carregados de narrativa emocional, com pedidos implícitos de reação imediata. A ausência de histórico, de data e de informação verificável pesa mais do que a presença de um detalhe visual suspeito”, diz.
Além disso, alguns comportamentos ainda podem entregar os falsos:
Piscar pouco ou de forma muito regular;
Emoções que mudam mecanicamente;
Sincronização exageradamente perfeita entre voz e movimentos.
A perfeição também pode ser suspeita. “Ambientes excessivamente estáveis, sem ruídos, sombras complexas ou interferências naturais sugerem cena construída digitalmente”, aponta Becker.
Como deve mudar o consumo de informação
Becker diz que é preciso abandonar a ideia de que um vídeo, por si só, prova um fato. “A imagem em movimento deixou de ser evidência direta da realidade. O consumo de conteúdo precisa levar em conta o contexto informativo, não só o visual”, afirma.
Ele recomenda reduzir a velocidade da reação diante de vídeos chocantes e buscar validação externa antes de compartilhar. “Muitas vezes, o objetivo do vídeo não é informar, e sim induzir comportamento. A impulsividade favorece a desinformação”, reitera.
Plataformas conseguem identificar IA?
As redes sociais já utilizam mecanismos de detecção, mas o controle está longe de ser o ideal. O advogado explica que as plataformas analisam padrões matemáticos e assinaturas digitais, mas não conseguem acompanhar a velocidade dos lançamentos.
A dificuldade também passa por distinguir usos legítimos da tecnologia. Nem todo vídeo gerado por IA é um problema. “Sinalizar tudo indiscriminadamente banaliza o aviso e atrapalha artistas e produtores que usam IA de maneira ética”, explica.
Para Thiago, a solução passa pela combinação de várias frentes. “Rótulos funcionam, mas o efeito é limitado sem educação digital. A estratégia mais eficaz envolve tecnologia, regulação e formação social ao mesmo tempo”, aponta.
Ele defende literacia digital como política pública. “Educação em mídia e informação precisa entrar na escola. Não é um tema tecnológico, é um tema social”, conclui.






