
Autoridade alerta sobre aumento de 400% em material abusivo gerado por IA (ilustrativa/banco de imagens)
O número de relatórios sobre imagens de abuso sexual infantil, criadas usando ferramentas de inteligência artificial, aumentou 400% no primeiro semestre de 2025, de acordo com novos dados da organização sem fins lucrativos britânica Internet Watch Foundation (IWF).
A IWF, que monitora materiais de abuso sexual infantil online, registrou 210 páginas contendo conteúdo gerado por IA nos primeiros seis meses de 2025, comparado a apenas 42 no mesmo período do ano anterior, conforme um relatório publicado esta semana.
Nessas páginas, havia 1.286 vídeos, um salto impressionante comparado a apenas dois em 2024. A maioria desse conteúdo era tão realista que precisava ser tratado sob a lei do Reino Unido como se fosse filmagem real, informou a IWF.
Artigos relacionados
Aproximadamente 78% dos vídeos – num total de 1.006 – foram classificados como “Categoria A”, o nível mais severo, que pode incluir cenas de estupro, tortura sexual e brutalidade, afirmou a IWF.
A maioria dos vídeos envolvia meninas e, em alguns casos, usava a semelhança de crianças reais.
A crescente prevalência de material de abuso infantil gerado por IA tem alarmado as forças da lei em todo o mundo
À medida que as ferramentas de IA generativa se tornam mais acessíveis e sofisticadas, a qualidade das imagens e dos vídeos melhora, tornando cada vez mais difícil a detecção utilizando técnicas tradicionais.
Enquanto os primeiros vídeos eram curtos e apresentavam falhas, a IWF agora observa produções mais longas e realistas, apresentando cenas complexas e ambientes variados. As autoridades afirmam que esse conteúdo é frequentemente usado para assédio e extorsão.
A IWF não sabe exatamente por que esses materiais estão proliferando tão rapidamente, afirmou Ray-Hill, mas “podemos supor que é porque as ferramentas de IA se tornaram cada vez mais baratas e fáceis de acessar e também cada vez mais fáceis de treinar”.
Com um único comando, ele disse, um usuário ‘pode gerar 50 imagens, levando cerca de 15 a 20 segundos cada, no caso de material de abuso sexual infantil’.
As agências de aplicação da lei estão começando a agir
Em uma operação coordenada no início deste ano, a Europol prendeu 25 indivíduos em conexão com a distribuição de tal material. Mais de 250 suspeitos foram identificados em 19 países, informou a Bloomberg.
A IWF pediu que o Reino Unido desenvolva uma estrutura regulatória para garantir que modelos de IA tenham controles para bloquear a produção desse tipo de material.
Em fevereiro, o Reino Unido tornou-se o primeiro país a criminalizar a criação e distribuição de ferramentas de IA destinadas a gerar conteúdo de abuso infantil. A lei proíbe a posse de modelos de IA otimizados para produzir tal material, bem como manuais que instruem infratores sobre como fazê-lo.
Nos EUA, o Centro Nacional para Crianças Desaparecidas e Exploradas — uma organização semelhante à IWF — disse ter recebido mais de 7 mil relatórios relacionados a conteúdo de abuso sexual infantil gerado por IA em 2024.
Fonte: Japan Times







