Home Saúde IA complica repressão a imagens de abuso infantil

IA complica repressão a imagens de abuso infantil

Por Humberto Marchezini


TOs CEOs de cinco empresas de mídia social, incluindo Meta, TikTok e X (antigo Twitter), foram interrogados por senadores na quarta-feira sobre como estão prevenindo a exploração sexual infantil online.

O Comité Judiciário do Senado convocou a reunião para responsabilizar os CEO pelo que consideraram ser um fracasso na prevenção do abuso de menores e perguntar se apoiariam as leis que os membros do Comité propuseram para resolver o problema.

É um problema que está a piorar, de acordo com o Centro Nacional para Crianças Desaparecidas e Exploradas, que afirma que os relatos de material de abuso sexual infantil (CSAM) atingiram um recorde no ano passado de mais de 36 milhões, conforme relatado pelo Washington Post. O Centro Nacional para Crianças Desaparecidas e Exploradas CyberTipline, um sistema centralizado nos EUA para relatar CSAM online, foi alertado sobre mais de 88 milhões de arquivos em 2022, com quase 90% das denúncias provenientes de fora do país.

Mark Zuckerberg da Meta, Shou Chew do TikTok e Linda Yaccarino do X apareceram ao lado de Jason Spiegel do Snap e Jason Citron do Discord para responder a perguntas do Comitê Judiciário do Senado. Enquanto Zuckerberg e Chew apareceram voluntariamente, o Comitê teve que servir Spiegel, Citron e Yaccarino intimações.

O senador Richard Durbin, democrata de Illinois e presidente do Comité, abriu a audiência com um vídeo que mostra vítimas de exploração sexual infantil online, incluindo famílias de crianças que morreram por suicídio após serem alvo de predadores online.

A senadora Lindsey Graham, republicana da Carolina do Sul e membro do ranking, contou aos participantes sobre Gavin Guffey, o filho de 17 anos do deputado estadual da Carolina do Sul, deputado Brandon Guffey, que morreu por suicídio depois de ser extorquido sexualmente no Instagram. “Vocês têm sangue nas mãos”, disse Graham aos CEOs, destacando Zuckerberg em particular.

Muitos dos legisladores reunidos expressaram a sua frustração com o que consideraram serem esforços insuficientes empreendidos pelas empresas de redes sociais para resolver o problema e afirmaram a sua própria vontade de agir. No ano passado, além de realizar uma série de audiências, o Comitê Judiciário relatado uma série de projetos de lei destinados a proteger as crianças online no plenário do Senado, incluindo a Lei EARN IT, que removeria a imunidade das empresas de tecnologia de responsabilidade civil e criminal sob as leis materiais de abuso sexual infantil.

Nos seus testemunhos, todos os CEO expuseram as medidas que estavam a tomar para prevenir danos online contra as crianças. No entanto, quando pressionados sobre se apoiariam os projectos de lei apresentados pelo Comité Judiciário, muitos hesitaram.

A certa altura, o senador Josh Hawley, um republicano do Missouri, perguntou a Zuckerberg se ele gostaria de pedir desculpas aos pais de crianças afetadas pelo CSAM online que estiveram presentes na audiência. “Sinto muito por tudo que vocês passaram”, disse Zuckerberg. “É terrível. Ninguém deveria passar pelas coisas que suas famílias sofreram.”

Em diversas ocasiões, os CEOs destacaram o uso de inteligência artificial pelas suas empresas para resolver a questão do CSAM online. Em seu depoimento, Citron destacou o Discord aquisição da Sentropy, uma empresa que desenvolveu soluções de moderação de conteúdo baseadas em IA. Zuckerberg disse que 99% do conteúdo que o Meta remove é detectado automaticamente por ferramentas de IA. No entanto, os legisladores e os chefes da tecnologia não discutiram o papel que a IA está a ter na proliferação do CSAM.

Imagens de abuso infantil geradas por IA

O advento da inteligência artificial generativa está a aumentar as preocupações sobre os danos causados ​​às crianças online. As autoridades em todo o mundo têm lutado para lidar com uma série de casos que envolvem material de abuso sexual infantil gerado por IA – um fenómeno sem precedentes perante muitos tribunais.

Sobre 10 de janeiroa atriz da Marvel, Xochitl Gomez, de 17 anos, que interpretou a super-heroína adolescente America Chavez no filme de 2022 Doutor Estranho no Multiverso da Loucurafalou sobre como foi difícil eliminar X de imagens pornográficas dela geradas por IA.

Falando em um podcast com o ator Taylor Lautner e sua esposa, Gomez disse que sua mãe e sua equipe têm tentado – sem sucesso – remover as imagens. “Ela recebia e-mails e mais e-mails, mas tipo, houve muitos e ela lidou com tudo”, diz ela. “Para mim, não era algo incompreensível, mas apenas algo como: ‘Por que é tão difícil de derrubar?’”

As autoridades enfrentam a complicada tarefa de impedir a propagação de CSAM gerados por IA à medida que a tecnologia evolui a um ritmo rápido e a facilidade de acesso a ferramentas como as chamadas aplicações nudify aumenta, mesmo entre as próprias crianças.

À medida que os modelos de IA melhoram e se tornam mais acessíveis, também se tornarão mais difíceis de policiar caso sejam utilizados para fins ilegais, como a criação de CSAM, de acordo com Dan Sexton, diretor de tecnologia da Internet Watch Foundation (IWF), sediada no Reino Unido. Ele diz que o mundo precisa chegar a um acordo sobre uma solução rapidamente: “Quanto mais esperarmos para encontrar uma solução para cada um desses possíveis problemas que podem acontecer amanhã, maior será a chance de que isso já tenha acontecido e então estaremos perseguindo , e você está tentando desfazer danos que já aconteceram.”

Um problema crescente

Na maior parte, a criação de qualquer tipo de CSAM já é amplamente criminalizada, incluindo o uso de IA. Em seu último relatório, o Centro Internacional para Crianças Desaparecidas e Exploradas descobriu que 182 dos 196 países possuem legislação que aborda especificamente o CSAM ou é suficiente o suficiente para combatê-lo. Por exemplo, Lei federal dos EUA define CSAM como qualquer representação visual de conduta sexualmente explícita envolvendo um menor – que pode incluir “imagens digitais ou geradas por computador indistinguíveis de um menor real”, bem como “imagens criadas, adaptadas ou modificadas, mas que parecem representar um menor real identificável”. .” Na Irlanda, a lei é muito mais rigorosa: o CSAM é ilegal, quer simulado ou não.

Alguns infratores já foram condenados sob tais leis. Em setembro, um Tribunal sul-coreano condenou um homem de 40 anos a 2,5 anos de prisão por usar IA para ilustrar centenas de imagens pornográficas realistas de crianças. Em abril passado, um Juiz de Quebec condenou um homem de 61 anos a três anos de prisão por usar tecnologia deepfake para criar vídeos sintéticos de abuso sexual infantil. No mesmo mês, Em Nova Iórqueum homem de 22 anos foi condenado a seis meses de prisão e 10 anos de liberdade condicional como agressor sexual depois de se declarar culpado de várias acusações relacionadas com a geração e divulgação de imagens sexualmente explícitas de mais de uma dúzia de mulheres menores de idade.

Consulte Mais informação: Taylor Swift Deepfakes destaca a necessidade de novas proteções legais

Mas a resolução destes casos nem sempre é simples. Espanha foi abalado por um caso de mais de 20 meninas com idades entre 11 e 17 anos tendo seus nus gerados por IA circulando online em setembro. Mas demorou algum tempo até que as autoridades responsáveis ​​pela aplicação da lei determinassem a responsabilidade criminal dos alegados culpados, que também se acredita serem menores. Manuel Cancio, professor de direito penal na Universidade Autônoma de Madrid, disse à TIME que “se fosse um caso claro em que todos soubessem onde localizá-lo em qual seção do código penal (espanhol), então as acusações teriam sido feitas já em frente.” David Wright, diretor do Centro de Segurança na Internet do Reino Unido, também disse à TIME que a organização de proteção infantil também recebeu relatos de crianças em idade escolar criando e divulgando imagens nuas geradas por IA de seus colegas.

A tecnologia de IA hoje pode usar a imagem de qualquer criança desavisada ou criar uma imagem que não seja baseada em uma criança real, para gerar material de abuso sexual em apenas alguns cliques, embora muitos dos desenvolvedores não permitam o uso de tal material. O Observatório da Internet de Stanford encontrado que alguns modelos de IA foram treinados em conjuntos de dados que continham pelo menos 3.000 imagens de CSAM conhecidos – provenientes de plataformas convencionais como X e Reddit—mesmo que suas políticas proíbam a publicação de tal conteúdo. Reddit e X não responderam aos pedidos de comentários sobre o relatório. Sexton diz que a IWF também recebeu relatos de imagens de crianças vítimas anteriores sendo reutilizadas para criar mais CSAM delas.

David Thiel, tecnólogo-chefe do Stanford Internet Observatory, diz que o CSAM gerado por IA ultrapassou as soluções usadas para rastrear e remover o conteúdo. “É apenas um fluxo constante de novo material, em vez desta recirculação de material conhecido, o que torna a parte visual da impressão digital realmente difícil”, disse Thiel.

Como impedir a propagação do AI CSAM?

Os desenvolvedores de modelos de IA dizem que suas ferramentas possuem proteções específicas que proíbem seu abuso. OpenAI proíbe o uso de seu gerador de imagens DALL-E para imagens sexuaisenquanto Midjourney exige que o conteúdo seja PG-13. IA de estabilidade atualizou seu software para dificultar a criação de conteúdo adulto. Mas de acordo com a organização de segurança na Internet ActiveFence, alguns usuários encontraram maneiras de desbloquear esses modelos. A liderança da OpenAI apelou aos decisores políticos para intervir e definir parâmetros sobre o uso de modelos de IA.

Eliminar todo o material de abuso existente na Internet exigiria grandes quantidades de poder e tempo computacional, por isso empresas de tecnologia e organizações anti-tráfico sexual como Espinho desenvolveram tecnologias de aprendizado de máquina que detectam, removem e denunciam CSAM. Uma tecnologia usada é chamada de correspondência de hash: um processo que permite que as plataformas marquem arquivos visualmente semelhantes. Outra é o uso de classificadores, ferramentas de aprendizado de máquina que indicam a probabilidade de o conteúdo ser CSAM.

Outra solução em estudo é limitar o acesso à tecnologia. Os defensores dos modelos de IA de código aberto argumentam que o código aberto promove a colaboração entre os utilizadores, promove a transparência ao renunciar ao controlo das empresas que os administram e também democratiza o acesso. Sexton diz que embora o acesso para todos possa parecer favorável em princípio, existem riscos. “Na realidade, o efeito que vemos em colocar uma tecnologia realmente poderosa como esta nas mãos de todos significa que a colocamos nas mãos de agressores sexuais de crianças, que a colocamos nas mãos de pedófilos, perpetradores e do crime organizado. E eles criarão e estão criando conteúdo prejudicial a partir disso.”

Rebecca Portnoff, chefe de ciência de dados da Thorn, no entanto, diz que o debate sobre o acesso criou um falso binário entre modelos de código aberto e fechados, e ela sugere que a maior oportunidade para impedir a disseminação do CSAM gerado por IA está com os desenvolvedores. Ela diz que os desenvolvedores devem se concentrar na criação de modelos de “segurança desde o projeto” para mitigar os danos às crianças, em vez de adotar medidas de prevenção que respondam reativamente às ameaças existentes.

Portnoff enfatiza que o tempo é essencial. “Não vai desacelerar”, diz ela. “Isso me leva de volta ao conceito de usar todas as ferramentas que temos em mãos para lidar com isso de maneira adequada. E essas ferramentas incluem aquelas que realmente construímos, incluem a colaboração com órgãos reguladores e incluem a colaboração com empresas de tecnologia.”





Source link

Related Articles

Deixe um comentário