Explosão de denúncias expõe uso de IA para criar conteúdo de abuso infantil

Relatório aponta explosão nas denúncias e destaca evolução acelerada da tecnologia, com impactos que ultrapassam o ambiente digital

Denúncias – O avanço da inteligência artificial tem ampliado desafios no combate a crimes digitais, especialmente quando envolve a proteção de crianças. Um novo relatório revela que o número de denúncias de imagens de abuso sexual infantil geradas por IA cresceu 154% em apenas um ano, evidenciando a rapidez com que essa tecnologia vem sendo utilizada de forma indevida.

De acordo com dados da Internet Watch Foundation, foram registradas 491 denúncias desse tipo de material em 2025, contra 193 no ano anterior. Para analistas da entidade, o aumento vai além dos números e reflete uma mudança significativa na capacidade das ferramentas de inteligência artificial.

LEIA: Cientistas descobrem comportamento quântico em supercondutores

Segundo a própria instituição, houve um “avanço rápido e assustador” na forma como essas imagens são produzidas. Isso permite a criação de conteúdos falsos, mas altamente realistas, em questão de segundos, seja por meio de comandos simples ou pela manipulação de imagens já existentes.

Outro dado que chama atenção é o crescimento expressivo de vídeos. Em 2025, analistas identificaram 3.443 conteúdos desse tipo, um salto em relação aos apenas 13 registrados em 2024. O cenário indica que a tecnologia não só evoluiu, como também se tornou mais acessível e fácil de utilizar.

O relatório também aponta mudanças na forma de disseminação desse material. Antes mais restrito a ambientes ocultos da internet, como a dark web, o conteúdo agora também aparece em sites convencionais e até em anúncios em redes sociais.

Além disso, há preocupação com o nível de gravidade das imagens. As produções geradas por IA apresentam maior probabilidade de serem classificadas nas categorias mais severas de abuso. Nos últimos dois anos, quase metade dos registros classificados como criminosos ficaram na categoria C, que inclui imagens sexualizadas de crianças sem violência explícita, embora ainda haja presença significativa de conteúdos mais extremos.

Para a Internet Watch Foundation, o impacto desse fenômeno vai além do ambiente digital. “O material de abuso sexual infantil gerado por IA representa um risco significativo e crescente”, afirmou a organização no relatório. A entidade alerta que essas imagens podem reforçar ciclos de exploração e causar danos duradouros às vítimas, sobretudo quando utilizam rostos ou corpos de crianças reais.

No cenário internacional, o Lei de Segurança Online do Reino Unido já determina que plataformas removam esse tipo de conteúdo, embora existam críticas sobre a eficácia das medidas. No Brasil, propostas como o chamado ECA Digital seguem caminho semelhante ao ampliar a responsabilidade das plataformas, ainda que especialistas considerem que a aplicação prática esteja em estágio inicial.

Diante desse contexto, a própria Internet Watch Foundation defende que empresas de tecnologia adotem mecanismos de segurança desde a fase de desenvolvimento de seus produtos, antes mesmo de sua disponibilização ao público.

(Com informações de Tecmundo)

(Foto: Reprodução/Freepik/MrDm)

Leia mais