A tecnologia de inteligência artificial evoluiu a um ponto em que distinguir o que é real do que foi fabricado tornou-se um desafio diário. A pergunta que surge é: como detectar se um vídeo foi feito por IA?
Ferramentas avançadas como o Sora (OpenAI), o Veo 3 e o Nano Banana (Google) levam a nos questionar o que é realidade e o que é fantasia gerada por inteligência artificial com suas cenas hiper-realistas em segundos.
smart_display
Nossos vídeos em destaque
Entender como essas mídias são produzidas é o primeiro passo para não cair em golpes financeiros ou compartilhar desinformação.
Confira, a seguir, o guia completo para identificar manipulações digitais com as técnicas mais atualizadas.
O que são deepfakes e como funcionam?
Deepfakes são arquivos de vídeo ou áudio criados por meio de algoritmos de aprendizado profundo (deep learning) para substituir o rosto ou a voz de uma pessoa real.
A tecnologia utiliza redes neurais artificiais para mapear expressões e padrões de fala, replicando-os em outra pessoa com precisão assustadora.
Vale lembrar que figuras públicas e celebridades são especialmente vulneráveis a esses conteúdos.
Segundo o site CNET, sindicatos como o SAG-AFTRA (que representa atores em Hollywood) chegaram a pressionar a OpenAI para reforçar medidas de segurança e evitar o uso indevido de imagens de artistas.
Como a IA cria rostos e vozes falsas
A IA cria rostos falsos utilizando uma técnica onde duas redes neurais “competem” entre si para refinar a imagem até que ela pareça humana.
Para a voz, o algoritmo clona o timbre e a entonação. Desse modo, os criminosos conseguem simular ordens de pagamento ou declarações polêmicas.
Quais são os principais sinais de um deepfake
É possível ao observar as limitações técnicas que os algoritmos ainda enfrentam para identificar um vídeo de IA.
Em entrevista à BBC, o especialista em perícia digital Hany Farid, professor da Universidade da Califórnia, destaca que a duração é um fator importante: vídeos de IA costumam ter entre 6 e 10 segundos, pois gerar clipes longos é caro e aumenta a chance de erros da máquina.
Fique atento aos detalhes técnicos que apontam manipulação digital em vídeos:
Cortes frequentes
Note se o vídeo tem cortes a cada 8 segundos, isso pode ser uma tentativa de esconder falhas da IA em sequências longas.
Resolução e qualidade do vídeo
Observe se o fundo parece excessivamente borrado ou se a textura da pele muda subitamente de nitidez.
Sincronia labial falha
Verifique se os movimentos da boca condizem exatamente com o que é dito, especialmente em letras que exigem fechar os lábios (m, p, b).
Piscada de olhos
Ainda é comum a IA falhar ao reproduzir a frequência natural do piscar humano. Um detalhe que facilita a detecção de vídeos de IA!
O “Vale da Estranheza”
Se algo no rosto parece “perfeito demais” ou levemente robótico, desconfie.
Ferramentas que ajudam a detectar vídeos de IA
Há softwares que analisam vídeos e entregam a probabilidade de ser falso em porcentagem. Ferramentas como Sightengine, MyDetector e DecopyAI são amplamente utilizadas para essa finalidade.
Além delas, você mesmo pode verificar a procedência de um arquivo analisando seus metadados:
- Acesse o site Content Authenticity;
- Carregue o arquivo (foto ou vídeo) desejado;
- Verifique o painel à direita, se o conteúdo foi gerado por IA, isso aparecerá no resumo.
Importante: Nenhuma ferramenta de detecção de IA é perfeita! Vídeos feitos com o Midjourney, por exemplo, muitas vezes não são sinalizados por esses detectores automáticos.
Deepfakes, golpes e desinformação
Os riscos dos deepfakes envolvem desde fraudes financeiras até a manipulação da opinião pública. Um exemplo real citado pelo g1 foi um vídeo viral que mostrava o líder venezuelano Nicolás Maduro tomando banho de sol em um presídio nos EUA.
A cena, que teve mais de 500 mil visualizações no X (antigo Twitter), era totalmente falsa e criada por IA para sustentar uma narrativa política falsa.
Como se proteger de vídeos manipulado
Para se proteger dos vídeos de IA, a primeira regra é a checagem cruzada: se um vídeo apresenta uma notícia bombástica, procure o mesmo conteúdo em veículos de imprensa profissionais.
No cotidiano, se receber um vídeo de um familiar pedindo dinheiro em situação de emergência, desconfie de clipes muito curtos ou com falhas de áudio.
Lembre-se: o custo de validar uma informação é muito menor do que o prejuízo de um golpe.
O uso ético de ferramentas como o Seedance 2.0, que sofreu restrições após queixas da indústria do cinema, mostra que o combate à manipulação é uma luta constante entre tecnologia e regulação.
Manter o senso crítico é sua melhor defesa. O avanço de modelos como o Nano Banana tornou a criação de fakes acessível a qualquer um. Portanto, não confie apenas no que seus olhos veem em telas de celular e computador!
Gostou de aprender a desmascarar vídeos de IA? Então compartilhe esta matéria nas suas redes sociais e ajude a combater a desinformação!
Para saber mais sobre como a tecnologia está mudando o mundo, continue navegando no TecMundo.
