O número de denúncias de imagens de abuso sexual infantil geradas por inteligência artificial (IA) disparou 154% em apenas um ano. O dado mais recente chama atenção logo de cara: foram 491 denúncias desse tipo de material em 2025, contra 193 no ano anterior.
O levantamento é da Internet Watch Foundation (IWF), que monitora conteúdos ilegais na internet. Para analistas da IWF, o salto não é só numérico, ele revela uma mudança preocupante na capacidade das ferramentas de IA.
smart_display
Nossos vídeos em destaque
Segundo a própria instituição, houve um “avanço rápido e assustador” na forma como essas imagens são produzidas, o que significa que conteúdos falsos, mas altamente realistas, podem ser gerados em segundos a partir de comandos simples ou da manipulação de imagens já existentes.
E não para por aí, porque um dos pontos que mais preocupa é o crescimento de vídeos. Em 2025, analistas identificaram 3.443 vídeos desse tipo, um salto gigantesco em relação aos apenas 13 registrados em 2024. Isso indica que a tecnologia não só evoluiu, como também ficou mais acessível e fácil de usar.
O relatório também mostra que esse conteúdo está se espalhando de novas formas. Além de circular em ambientes mais ocultos da internet, como a dark web, ele também aparece em sites comuns e até em anúncios em redes sociais.
Outro ponto sensível é o nível de gravidade, já que as imagens geradas por IA têm maior probabilidade de serem classificadas nas categorias mais severas de abuso. Nos últimos dois anos, quase metade dos registros classificados como criminosos ficaram na categoria C, que inclui imagens sexualizadas de crianças embora sem violência explícita, mas há uma presença significativa de conteúdos mais extremos.
A IWF alerta que o impacto vai além do digital. “O material de abuso sexual infantil gerado por IA representa um risco significativo e crescente”, afirmou a organização no relatório. Segundo a entidade, essas imagens podem reforçar ciclos de exploração e causar danos duradouros às vítimas, especialmente porque muitas vezes utilizam rostos ou corpos de crianças reais.
No Reino Unido, a Lei de Segurança Online já obriga plataformas a remover esse tipo de conteúdo, mas há críticas de que as medidas ainda são insuficientes. No Brasil, iniciativas recentes como o chamado ECA Digital seguem uma linha parecida, ao ampliar a responsabilidade das plataformas na proteção de menores, embora especialistas apontem que a aplicação prática ainda está em estágio inicial.
A própria Internet Watch Foundation defende que empresas de tecnologia precisam incorporar mecanismos de segurança desde o desenvolvimento dos produtos, antes mesmo de colocá-los no ar.
