
O avanço das ferramentas de inteligência artificial tem tornado cada vez mais difícil distinguir conteúdos reais de vídeos e imagens manipulados digitalmente. E os brasileiros aparecem entre os mais expostos a esse tipo de material.
Segundo uma pesquisa da Veriff, empresa de verificação de identidade digital, 80% dos brasileiros já tiveram contato com deepfakes nas redes sociais e no ambiente online, acima da média global, de 60%. Apesar disso, apenas 29% conseguem identificar corretamente quando um vídeo é falso, enquanto somente 35% são capazes de reconhecer conteúdos verdadeiros.
O estudo surge em meio à rápida evolução de geradores de imagem e vídeo por IA, que vêm ampliando preocupações relacionadas a fraudes financeiras, golpes de identidade e desinformação política.
“Até dois anos atrás, as pessoas achavam que conseguiam identificar deepfakes porque os vídeos apresentavam erros mais visíveis, como dedos extras ou partes do rosto deformadas. Hoje esses sinais praticamente desapareceram”, afirmou Andrea Rozenberg, diretora de mercados emergentes da Veriff.
A pesquisa foi baseada em um teste no qual participantes precisavam diferenciar conteúdos reais e falsos, incluindo vídeos criados por IA, imagens manipuladas e casos de troca de rostos em vídeos reais.
Ferramentas lançadas recentemente por empresas de tecnologia chamaram atenção pelo alto grau de realismo. Entre elas estão o Seedance 2.0, da ByteDance, dona do TikTok, e o NanoBanana 2, do Google. Especialistas alertam ainda que modelos abertos podem ser facilmente acessados por criminosos para produzir golpes e materiais falsificados.
Segundo Andrea, o nível atual de qualidade dificulta cada vez mais a percepção humana. “Hoje, com poucas imagens, já é possível gerar simulações extremamente convincentes. O olho humano já não consegue distinguir com segurança o que é real”, disse.
Regras eleitorais e avanço dos golpes
A pesquisa também mostrou preocupação elevada dos brasileiros com o tema. Cerca de 87% afirmaram temer fraudes e golpes de identidade com uso de IA, enquanto 81% enxergam potencial de impacto da tecnologia sobre conteúdos políticos e eleitorais.
O debate ganhou força no contexto das eleições de 2026. O Tribunal Superior Eleitoral (TSE) endureceu as regras para o uso de inteligência artificial nas campanhas. Materiais manipulados por IA precisarão informar de forma clara que foram alterados e indicar a tecnologia utilizada.
As regras também proíbem a publicação, republicação ou impulsionamento de novos conteúdos produzidos por IA nas 72 horas anteriores ao pleito e nas 24 horas posteriores ao encerramento da votação.
Mesmo com as novas medidas, conteúdos sintéticos já circulam amplamente em plataformas como Instagram e TikTok, especialmente em publicações políticas. O desafio aumenta quando esses vídeos passam a ser compartilhados em aplicativos de mensagem, onde a fiscalização sobre rotulagem e origem do conteúdo é mais limitada.
Dados recentes da Polícia Federal reforçam a preocupação: 42,5% das fraudes financeiras registradas no Brasil já utilizam ferramentas de inteligência artificial, especialmente deepfakes.
Diante desse cenário, especialistas recomendam cautela com conteúdos que despertem forte emoção ou tragam pedidos urgentes, principalmente em situações que envolvam transferências financeiras ou compartilhamento de informações pessoais. Verificar a origem do material e confirmar informações por outros canais seguem entre as principais formas de proteção.
(Com informações de O Globo)
The post IA engana e deepfakes avançam mais rápido do que a percepção dos brasileiros appeared first on InfoMoney.
