Um caso investigado desde janeiro no Rio Grande do Sul joga luz sobre um tipo de golpe que já deixou de ser coisa de filme. O uso de inteligência artificial (IA) para clonar vozes está mais acessível, mais convincente e começa a aparecer em crimes reais, usando urgência e emoção para enganar vítimas.
O ponto de partida é um crime que chamou atenção nos últimos dias. Em Cachoeirinha, na região metropolitana de Porto Alegre, um policial militar é suspeito de usar IA para simular a voz da ex-companheira e atrair os pais dela.
smart_display
Nossos vídeos em destaque
Segundo a investigação, os áudios enviados imitavam a voz de Silvana de Aguiar, que já estava desaparecida. Nas mensagens, havia pedidos de ajuda, relatos de acidente e até solicitações simples do dia a dia, criando uma sensação de normalidade suficiente para convencer as vítimas a agir.
Ferramentas de detecção indicaram alta probabilidade de que os áudios tenham sido gerados por IA. O caso ainda está em andamento, mas já serve como um alerta claro: a tecnologia evoluiu, e os golpes também.
Como a clonagem de voz ficou tão fácil
Se antes esse tipo de fraude exigia conhecimento técnico avançado, hoje o cenário é outro. Em entrevista ao TecMundo, Luiz Cláudio, fundador da LC SEC, consultoria de cibersegurança, disse que “o criminoso precisa basicamente de uma amostra de áudio da vítima, uma ferramenta de clonagem de voz baseada em IA e um roteiro para aplicar o golpe”.
“Muitas ferramentas já automatizam boa parte do processo, reduzindo a barreira de entrada para criminosos”, explica. Na prática, isso significa que poucos segundos de áudio já podem ser suficientes para começar uma imitação.
André Fossa, cofundador da Cogni2, reforça que o nível de exigência caiu bastante. “Já existem referências públicas de modelos capazes de gerar uma voz sintética a partir de algo na faixa de 15 segundos de áudio”, afirma em entrevista ao TecMundo. Em muitos casos, nem é preciso perfeição: basta que a voz seja parecida o suficiente para gerar dúvida e provocar uma reação emocional.
Uma das maiores dificuldades é justamente perceber quando o áudio é falso, e a resposta dos especialistas é direta: nem sempre dá. “A recomendação é não confiar apenas no ouvido, porque a tecnologia evoluiu muito”, diz Luiz Cláudio.
Mesmo assim, alguns sinais podem levantar suspeita. A fala pode soar estranha, com pausas pouco naturais ou emoção incompatível com a situação e, em outros casos, as frases são genéricas demais ou há pequenas falhas na pronúncia.
Fossa chama atenção para um detalhe curioso: a IA pode parecer “perfeita demais”. “A IA tende a responder de forma muito rápida, limpa e completa, com menos hesitação natural do que uma pessoa teria”, explica.
Além disso, sistemas automatizados ainda podem ter dificuldade com interrupções ou mudanças bruscas de assunto, algo comum em conversas reais.
Apesar da sofisticação, a lógica por trás desses crimes não mudou tanto, o que a IA faz é potencializar uma estratégia já conhecida. “A IA não substitui o phishing tradicional; ela potencializa”, afirma Luiz Cláudio.
Ou seja, continuam presentes os elementos clássicos do golpe, que são urgência, pressão emocional e pedidos difíceis de verificar naquele momento. A diferença é que agora a história vem acompanhada de uma voz familiar, o que aumenta muito o poder de convencimento.
Fossa resume a dinâmica de forma simples: “uma voz conhecida, uma justificativa emocional e uma janela de tempo curta”.
Como se proteger no dia a dia
“A principal recomendação é parar e validar por outro canal”, orienta Luiz Cláudio. Isso significa interromper o impulso inicial e buscar confirmação fora daquela conversa, seja ligando para um número já conhecido ou verificando a informação com outra pessoa próxima.
Fossa sugere uma estratégia prática que tem ganhado espaço: criar formas de validação dentro da própria família ou círculo próximo. “Fazer perguntas que somente aquela pessoa saberia responder”, explica, destacando que dados básicos não são suficientes, já que podem estar disponíveis na internet.
Outro ponto importante é entender que a urgência faz parte do golpe. Quanto maior a pressão por uma resposta rápida, maior deve ser a desconfiança.
O uso desse tipo de fraude deve aumentar nos próximos anos, e o Brasil já está inserido nesse cenário.
“Temos alto uso de redes sociais, aplicativos de mensagem e pagamentos instantâneos, o que torna o ambiente muito atrativo para criminosos”, afirma Luiz Cláudio.
Fossa vai além e lembra que o país já é conhecido pela sofisticação em golpes digitais e, com a popularização da IA, a tendência é que essas práticas se tornem ainda mais comuns.
Ao mesmo tempo, ele aponta que a própria tecnologia pode ajudar na defesa, com sistemas capazes de identificar padrões e inconsistências que passam despercebidos por humanos.

)
)
)