Há mais vídeos com cenas de abuso infantil, a maioria de meninas, produzidas por IA (Inteligência Artificial) ciruculando no mundo, informou o mais recente relatório da IWF (Internet Watch Foundation).
Leia também: Instagram ajudou a promover rede de contas de pedofilia, diz jornal
Publicado nesta segunda-feira (22), o estudo mostrou que, além de o material ter se tornado mais comum na internet, até mesmo fora da dark web, de outubro de 2023 para cá, está cada vez mais elaborado, com cenas muito mais graves e explícitas.
Mais de 955 pseudofotografias (32%) foram classificadas como Categoria A – retratando sexo com penetração, bestialidade ou sadismo – um aumento de 10 pontos percentuais4.
Há um ano, já era possível para os predadores baixarem legalmente todo o material necessário para produzir imagens “realistas” de abuso infantil com o uso da IA. O conteúdo é produzido com imagens de vítimas conhecidas de abuso sexual infantil ou de crianças famosas, apontou o relatório daquele ano e o deste.
A capacidade de transformar qualquer cenário numa realidade visual é bem recebida pelos infratores, que se vangloriam num fórum da dark web sobre a possibilidade de "criar qualquer pornografia infantil que desejarmos… em alta definição”.
Num estudo instantâneo entre março e abril deste ano, a IWF identificou nove vídeos deepfake em apenas um fórum da dark web dedicado a material de abuso sexual infantil (CSAM) – nenhum tinha sido encontrado anteriormente quando os analistas da IWF investigaram o fórum em outubro.
Alguns dos vídeos deepfake apresentam pornografia adulta que é alterada para mostrar o rosto de uma criança. Outros são vídeos existentes de abuso sexual infantil que tiveram o rosto de outra criança sobreposto.
Como os vídeos originais de abuso sexual são de crianças reais, os analistas da IWF dizem que os deepfakes são convincentes.
O software de IA gratuito e de código aberto parece estar por trás de muitos dos vídeos deepfake vistos pela IWF, com métodos semelhantes aos usados ??para gerar pornografia adulta deepfake.
A CEO da Internet Watch Foundation, Susie Hargreaves OBE, disse: “O fato de alguns destes vídeos manipularem imagens de vítimas conhecidas é ainda mais horrível. Os sobreviventes de alguns dos piores tipos de traumas agora não têm trégua, sabendo que os agressores podem usar imagens do seu sofrimento para criar qualquer cenário de abuso que desejarem".
“As decisões certas tomadas agora – pelo governo, pela indústria tecnológica e pela sociedade civil – para garantir que a segurança das crianças é uma prioridade na concepção de ferramentas de IA poderiam evitar o impacto devastador que o uso indevido desta tecnologia terá na protecção global das crianças", acrescentou Susie Hargreaves.