Os responsáveis pela aplicação da lei estão a preparar-se para uma explosão de material gerado por inteligência artificial que retrata de forma realista crianças a serem exploradas sexualmente, aprofundando o desafio de identificar vítimas e combater tais abusos.
As preocupações surgem no momento em que o Meta, um recurso primário para as autoridades na sinalização de conteúdo sexualmente explícito, tornou mais difícil rastrear criminosos ao criptografar seu serviço de mensagens. A complicação sublinha o difícil equilíbrio que as empresas tecnológicas devem encontrar ao ponderar os direitos de privacidade e a segurança das crianças. E a perspectiva de processar esse tipo de crime levanta questões espinhosas sobre se tais imagens são ilegais e que tipo de recurso pode haver para as vítimas.
Os legisladores do Congresso aproveitaram algumas dessas preocupações para pressionar por salvaguardas mais rigorosas, inclusive convocando executivos de tecnologia na quarta-feira para testemunhar sobre a proteção que oferecem às crianças. Imagens falsas e sexualmente explícitas de Taylor Swift, provavelmente geradas por IA, que inundaram as redes sociais na semana passada apenas destacaram os riscos dessa tecnologia.
“Criar imagens sexualmente explícitas de crianças através do uso de inteligência artificial é uma forma particularmente hedionda de exploração online”, disse Steve Grocki, chefe da secção de exploração infantil e obscenidade do Departamento de Justiça.
A facilidade da tecnologia de IA significa que os perpetradores podem criar dezenas de imagens de crianças sendo exploradas ou abusadas sexualmente com o clique de um botão.
Basta inserir um prompt para gerar imagens, vídeos e textos realistas em minutos, gerando novas imagens de crianças reais, bem como imagens explícitas de crianças que na verdade não existem. Isso pode incluir material gerado por IA de bebês e crianças pequenas sendo estupradas; crianças famosas sendo abusadas sexualmente, de acordo com um recente estudo da Grã-Bretanha; e fotos rotineiras das aulas, adaptadas para que todas as crianças fiquem nuas.
“O horror que temos diante de nós é que alguém pode pegar a imagem de uma criança nas redes sociais, na página de uma escola ou em um evento esportivo, e pode se envolver no que alguns chamam de ‘nudificação’”, disse o Dr. Michael Bourke. , o ex-psicólogo-chefe do US Marshals Service que há décadas trabalha com crimes sexuais envolvendo crianças. Usar IA para alterar fotos dessa forma está se tornando mais comum, disse ele.
As imagens são indistinguíveis das reais, dizem os especialistas, tornando mais difícil identificar uma vítima real de uma falsa. “As investigações são muito mais desafiadoras”, disse o tenente Robin Richards, comandante da força-tarefa de crimes contra crianças na Internet do Departamento de Polícia de Los Angeles. “Leva tempo para investigar e, quando estivermos profundamente envolvidos na investigação, é IA, e então o que faremos com isso daqui para frente?”
As agências responsáveis pela aplicação da lei, com falta de pessoal e de financiamento, já lutaram para acompanhar o ritmo, à medida que os rápidos avanços na tecnologia permitiram que as imagens de abuso sexual infantil florescessem a um ritmo surpreendente. Imagens e vídeos, possibilitados pelas câmeras dos smartphones, pela dark web, pelas redes sociais e pelos aplicativos de mensagens, ricocheteiam pela internet.
Apenas uma fração do material considerado criminoso está sendo investigada. John Pizzuro, chefe da Raven, uma organização sem fins lucrativos que trabalha com legisladores e empresas para combater a exploração sexual de crianças, disse que durante um período recente de 90 dias, as autoridades policiais vincularam quase 100.000 endereços IP em todo o país ao abuso sexual infantil. material. (Um endereço IP é uma sequência única de números atribuídos a cada computador ou smartphone ligado à Internet.) Destes, menos de 700 estavam a ser investigados, disse ele, devido a uma falta crónica de financiamento dedicado ao combate a estes crimes.
Embora uma lei federal de 2008 tenha autorizado US$ 60 milhões para ajudar autoridades estaduais e locais responsáveis pela aplicação da lei na investigação e no julgamento de tais crimes, o Congresso nunca se apropriou dessa quantia em um determinado ano, disse Pizzuro, um ex-comandante que supervisionou casos de exploração infantil on-line em Nova York. Jersey.
O uso da inteligência artificial complicou outros aspectos do rastreamento do abuso sexual infantil. Normalmente, ao material conhecido é atribuída aleatoriamente uma sequência de números que equivale a uma impressão digital, que é usada para detectar e remover conteúdo ilícito. Se as imagens e vídeos conhecidos forem modificados, o material parece novo e não está mais associado à impressão digital.
A juntar a estes desafios está o facto de que, embora a lei exija que as empresas tecnológicas denunciem material ilegal se for descoberto, não exige que o procurem activamente.
A abordagem das empresas de tecnologia pode variar. A Meta tem sido o melhor parceiro das autoridades quando se trata de denunciar material sexualmente explícito envolvendo crianças.
Em 2022, de um total de 32 milhões de gorjetas ao Centro Nacional para Crianças Desaparecidas e Exploradas, o centro de compensação designado pelo governo federal para material de abuso sexual infantil, Meta referiu cerca de 21 milhões.
Mas a empresa está criptografando sua plataforma de mensagens para competir com outros serviços seguros que protegem o conteúdo dos usuários, essencialmente apagando as luzes dos investigadores.
Jennifer Dunton, consultora jurídica da Raven, alertou sobre as repercussões, dizendo que a decisão poderia limitar drasticamente o número de crimes que as autoridades conseguem rastrear. “Agora você tem imagens que ninguém jamais viu e nem estamos procurando por elas”, disse ela.
Tom Tugendhat, ministro da segurança britânico, disse que a medida fortaleceria os predadores infantis em todo o mundo.
“A decisão da Meta de implementar criptografia de ponta a ponta sem recursos de segurança robustos torna essas imagens disponíveis para milhões de pessoas sem medo de serem capturadas”, disse Tugendhat em comunicado.
A gigante da mídia social disse que continuaria fornecendo às autoridades quaisquer dicas sobre material de abuso sexual infantil. “Estamos focados em encontrar e denunciar esse conteúdo, enquanto trabalhamos para prevenir abusos em primeiro lugar”, disse Alex Dziedzan, porta-voz da Meta.
Embora existam apenas alguns casos atuais envolvendo material de abuso sexual infantil gerado por IA, espera-se que esse número cresça exponencialmente e destaque questões novas e complexas sobre se as leis federais e estaduais existentes são adequadas para processar estes crimes.
Por um lado, existe a questão de como tratar materiais inteiramente gerados por IA.
Em 2002, o Supremo Tribunal anulou uma proibição federal de imagens geradas por computador de abuso sexual de crianças, concluindo que a lei foi redigida de forma tão ampla que poderia potencialmente também limitar obras políticas e artísticas. Alan Wilson, o procurador-geral da Carolina do Sul que liderou uma carta ao Congresso instando os legisladores a agirem rapidamente, disse em uma entrevista que previa que a decisão seria testada, à medida que proliferavam casos de material de abuso sexual infantil gerado por IA.
Várias leis federais, incluindo uma lei sobre obscenidade, podem ser usadas para processar casos que envolvam materiais de abuso sexual infantil online. Alguns estados estão estudando como criminalizar esse conteúdo gerado pela IA, incluindo como responsabilizar menores que produzem tais imagens e vídeos.
Para uma adolescente, estudante do ensino secundário em Westfield, NJ, a falta de repercussões legais para a criação e partilha de tais imagens geradas por IA é particularmente grave.
Em outubro, a menina, na época com 14 anos, descobriu que estava entre um grupo de meninas de sua turma cuja semelhança foi manipulada e despida, no que equivalia a uma imagem dela nua com a qual ela não consentiu, que depois circulou em chats online. Ela ainda não viu a imagem em si. O incidente ainda está sob investigação, embora pelo menos um estudante do sexo masculino tenha sido brevemente suspenso.
“Isso pode acontecer com qualquer pessoa”, disse sua mãe, Dorota Mani, em uma entrevista recente.
Mani disse que ela e sua filha estavam trabalhando com legisladores estaduais e federais para elaborar novas leis que tornariam ilegais essas imagens falsas de nus. Este mês, a adolescente falou em Washington sobre sua experiência e pediu ao Congresso que aprovasse um projeto de lei que daria recurso a pessoas cujas imagens fossem alteradas sem o seu consentimento.
Sua filha, disse Mani, passou de chateada a irritada e a empoderada.