O volume de vídeos de abuso sexual infantil produzidos por inteligência artificial (IA) alcançou 1.286 registros em 2025, informou a Internet Watch Foundation (IWF). No primeiro semestre de 2024, apenas dois materiais desse tipo haviam sido identificados.
A IWF, organização britânica sem fins lucrativos voltada ao combate à pornografia infantil, atribui o crescimento às evoluções recentes da tecnologia e à cooperação entre grupos que atuam na dark web. Analistas destacam que os novos conteúdos exibem movimentos mais suaves, cenários detalhados e múltiplos agressores, tornando a detecção mais difícil.
Qualidade cada vez mais alta
Ferramentas de IA já conseguem evitar sinais que antes denunciavam a falsificação, como mãos com número excessivo de dedos, fundos embaçados ou transições de quadro irregulares. Segundo a fundação, usuários de fóruns subterrâneos comemoram a aparência “real” dos novos vídeos e trocam orientações sobre como aprimorá-los.
Resposta do setor de tecnologia
Atualmente, cerca de 35 empresas de tecnologia enviam relatórios sobre imagens de abuso infantil geradas por IA ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC), nos Estados Unidos, de acordo com John Shehan, dirigente da instituição. A frequência dessas notificações, porém, varia de companhia para companhia.
Especialistas temem que a combinação de imagens mais convincentes e mecanismos irregulares de denúncia favoreça a disseminação de conteúdo ilegal e dificulte o trabalho de investigadores em todo o mundo.