Casos de abuso infantil gerado por inteligência artificial crescem no Reino Unido e nos Estados Unidos

O volume de material de abuso sexual infantil produzido com o auxílio de ferramentas de inteligência artificial (IA) aumentou de forma expressiva nos primeiros seis meses deste ano, segundo dados compilados no Reino Unido e nos Estados Unidos. Organizações de proteção à infância, autoridades policiais e empresas de tecnologia identificaram milhares de imagens e vídeos criados ou manipulados digitalmente para retratar menores em situações de exploração sexual, cenário que pressiona governos e plataformas a adotar medidas mais rígidas de controle.

Aumento de registros no Reino Unido

Uma entidade britânica dedicada ao enfrentamento da exploração infantil localizou 1.286 vídeos gerados por IA contendo abuso sexual infantil entre janeiro e junho. O número supera o total verificado em todo o ano anterior e indica tendência de aceleração. Investigações apontam duas principais modalidades de produção: a manipulação de fotografias reais, obtidas em redes sociais ou sites escolares, e a criação integral de imagens sintéticas que simulam crianças.

Proposta de nova legislação

Em resposta aos registros, o governo do Reino Unido apresentou uma emenda ao marco legal vigente para tipificar como crime a criação, o compartilhamento e o armazenamento de qualquer conteúdo sexual envolvendo menores originado por inteligência artificial. Se aprovada pelo Parlamento, a medida fixará pena de até cinco anos de prisão aos infratores. Parlamentares e grupos de defesa de direitos da criança argumentam que a ausência de tipificação específica abriu brechas para a proliferação desse tipo de material.

Crescimento expressivo nos Estados Unidos

Nos Estados Unidos, o Centro Nacional de Crianças Desaparecidas e Exploradas recebeu aproximadamente 500 mil denúncias referentes a conteúdo de abuso infantil gerado ou alterado por IA no mesmo período de seis meses. O volume representa aumento considerável em relação ao ano passado, quando o órgão já havia registrado recordes de notificações. Especialistas atribuem a alta ao barateamento e à popularização de soluções capazes de criar imagens hiper-realistas em poucos segundos.

Métodos de obtenção das imagens

Análises técnicas conduzidas em ambos os países indicam que criminosos se valem de fotografias publicadas por familiares, escolas ou próprias crianças em ambientes on-line para produzir material abusivo por meio de algoritmos generativos. Outra prática identificada consiste em solicitar diretamente a programas de IA que gerem cenas fictícias, dispensando por completo o emprego de fotos reais. Em todos os casos, o conteúdo viola leis de proteção à infância e pode incentivar a prática de crimes offline.

Reação das plataformas de tecnologia

Empresas que hospedam conteúdo digital têm enfrentado pressão crescente para remover rapidamente arquivos ilícitos. A Amazon relatou a exclusão de milhares de publicações relacionadas a abuso infantil sintético nos primeiros meses do ano. Outras companhias, como serviços de armazenamento em nuvem e redes sociais, reforçaram sistemas de detecção automatizada e ampliaram equipes de moderação, embora reconheçam dificuldades para acompanhar o ritmo de criação de material via IA.

Apelos por cooperação internacional

Autoridades britânicas e norte-americanas defendem a articulação de padrões globais que obriguem desenvolvedores de IA, serviços de hospedagem e provedores de internet a implementar salvaguardas preventivas, inclusive bloqueios de termos potencialmente ilegais. Organizações de proteção à infância afirmam que a ausência de regulamentação uniforme facilita a migração de grupos criminosos para jurisdições menos restritivas. Enquanto novas leis são discutidas, especialistas recomendam campanhas de conscientização com pais, escolas e criadores de conteúdo digital para reduzir a exposição de imagens de menores na internet.

O debate sobre a responsabilidade de empresas tecnológicas, legisladores e sociedade civil deve se intensificar nos próximos meses, diante da expectativa de que ferramentas de inteligência artificial se tornem ainda mais acessíveis e capazes de produzir conteúdos cada vez mais realistas. Por ora, autoridades avaliam que o monitoramento constante e a atualização de estratégias de detecção representam as principais barreiras contra a disseminação de material de abuso infantil na rede.