Home Tecnologia Material de abuso sexual infantil gerado por IA pode sobrecarregar a linha de denúncias

Material de abuso sexual infantil gerado por IA pode sobrecarregar a linha de denúncias

Por Humberto Marchezini


Uma nova enxurrada de material de abuso sexual infantil criado por inteligência artificial ameaça sobrecarregar as autoridades já retidas por tecnologias e leis antiquadas, de acordo com um novo relatório divulgado segunda-feira pelo Observatório da Internet da Universidade de Stanford.

Durante o ano passado, as novas tecnologias de IA tornaram mais fácil para os criminosos criarem imagens explícitas de crianças. Agora, os investigadores de Stanford alertam que o Centro Nacional para Crianças Desaparecidas e Exploradas, uma organização sem fins lucrativos que funciona como uma agência central de coordenação e recebe a maior parte do seu financiamento do governo federal, não tem os recursos para combater a ameaça crescente.

A CyberTipline da organização, criada em 1998, é a câmara de compensação federal para todas as denúncias on-line sobre material de abuso sexual infantil, ou CSAM, e é usada pelas autoridades policiais para investigar crimes. Mas muitas das dicas recebidas estão incompletas ou repletas de imprecisões. Sua pequena equipe também tem lutado para acompanhar o volume.

“Quase certamente nos próximos anos, o CyberTipline será inundado com conteúdo de IA de aparência altamente realista, o que tornará ainda mais difícil para as autoridades identificarem crianças reais que precisam ser resgatadas”, disse Shelby Grossman, um dos os autores do relatório.

O Centro Nacional para Crianças Desaparecidas e Exploradas está na linha de frente de uma nova batalha contra imagens de exploração sexual criadas com IA, uma área emergente de crime que ainda está sendo delineada por legisladores e autoridades policiais. Em meio a uma epidemia de nus falsos gerados por IA que circulam nas escolas, alguns legisladores estão tomando medidas para garantir que tal conteúdo seja considerado ilegal.

Imagens de CSAM geradas por IA são ilegais se contiverem crianças reais ou se imagens de crianças reais forem usadas para treinar dados, dizem os pesquisadores. Mas aqueles produzidos sinteticamente e que não contenham imagens reais poderiam ser protegidos como liberdade de expressão, segundo um dos autores do relatório.

A indignação pública com a proliferação de imagens online de abuso sexual de crianças explodiu numa audiência recente com os principais executivos da Meta, Snap, TikTok, Discord e X, que foram criticados pelos legisladores por não fazerem o suficiente para proteger as crianças online.

O centro para crianças desaparecidas e exploradas, que recebe dicas de indivíduos e empresas como o Facebook e o Google, defendeu legislação para aumentar o seu financiamento e dar-lhe acesso a mais tecnologia. Pesquisadores de Stanford disseram que a organização forneceu acesso a entrevistas de funcionários e seus sistemas para que o relatório mostrasse as vulnerabilidades dos sistemas que precisam de atualização.

“Ao longo dos anos, a complexidade dos relatórios e a gravidade dos crimes contra crianças continuam a evoluir”, afirmou a organização num comunicado. “Portanto, o aproveitamento de soluções tecnológicas emergentes em todo o processo CyberTipline leva à proteção de mais crianças e à responsabilização dos infratores.”

Os pesquisadores de Stanford descobriram que a organização precisava mudar a forma como sua linha de denúncias funcionava para garantir que as autoridades pudessem determinar quais denúncias envolviam conteúdo gerado por IA, bem como garantir que as empresas que denunciassem material de possível abuso em suas plataformas preenchessem os formulários completamente.

Menos de metade de todas as denúncias feitas à CyberTipline foram “acionáveis” em 2022, quer porque as empresas que denunciaram o abuso não forneceram informações suficientes, quer porque a imagem numa denúncia se espalhou rapidamente online e foi denunciada muitas vezes. A linha de dicas tem a opção de verificar se o conteúdo da dica é um meme em potencial, mas muitos não a utilizam.

Num único dia no início deste ano, um número recorde de um milhão de denúncias de material de abuso sexual infantil inundou a câmara de compensação federal. Durante semanas, os investigadores trabalharam para responder ao aumento incomum. Descobriu-se que muitos dos relatos estavam relacionados a uma imagem de um meme que as pessoas compartilhavam em plataformas para expressar indignação, e não intenção maliciosa. Mas ainda consumiu recursos investigativos significativos.

Essa tendência vai piorar à medida que o conteúdo gerado por IA acelera, disse Alex Stamos, um dos autores do relatório de Stanford.

“Um milhão de imagens idênticas já é difícil, um milhão de imagens separadas criadas pela IA iria quebrá-las”, disse Stamos.

O centro para crianças desaparecidas e exploradas e os seus prestadores de serviços estão proibidos de utilizar fornecedores de computação em nuvem e são obrigados a armazenar imagens localmente em computadores. Esse requisito dificulta a construção e utilização do hardware especializado utilizado para criar e treinar modelos de IA para as suas investigações, descobriram os investigadores.

A organização normalmente não possui a tecnologia necessária para usar amplamente software de reconhecimento facial para identificar vítimas e agressores. Grande parte do processamento de relatórios ainda é manual.



Source link

Related Articles

Deixe um comentário