Caroline Mullet, aluna do nono ano da Issaquah High School, perto de Seattle, foi ao seu primeiro baile de boas-vindas no outono passado, uma festa temática de James Bond com mesas de blackjack frequentadas por centenas de garotas vestidas com vestidos de festa.
Algumas semanas depois, ela e outras alunas descobriram que um colega de classe estava divulgando imagens falsas de nudez de meninas que haviam assistido ao baile, fotos sexualmente explícitas que ele havia fabricado usando um aplicativo de inteligência artificial projetado para “retirar” automaticamente fotos vestidas de pessoas reais. meninas e mulheres.
Dona Mullet, 15 anos, alertou seu pai, Marca, um senador democrata do estado de Washington. Embora ela não estivesse entre as meninas nas fotos, ela perguntou se algo poderia ser feito para ajudar suas amigas, que se sentiram “extremamente desconfortáveis” por colegas do sexo masculino terem visto imagens simuladas delas nuas. Em breve, o senador Mullet e um colega na Câmara do Estado propuseram legislação para proibir a partilha de representações explícitas da sexualidade geradas pela IA de menores reais.
“Odeio a ideia de ter que me preocupar com a possibilidade de isso acontecer novamente com qualquer uma de minhas amigas, minhas irmãs ou até mesmo comigo”, disse Mullet aos legisladores estaduais durante uma audiência sobre o projeto em janeiro.
O Legislativo Estadual passou a conta sem oposição. O governador Jay Inslee, um democrata, assinou-o no mês passado.
Os Estados estão na linha da frente de uma nova forma de exploração e assédio sexual entre pares nas escolas, que se espalha rapidamente. Meninos nos Estados Unidos usaram aplicativos de “nudificação” amplamente disponíveis para inventar sub-repticiamente imagens sexualmente explícitas de suas colegas de classe e, em seguida, divulgaram os nus simulados por meio de bate-papos em grupo em aplicativos como Snapchat e Instagram.
Agora, estimulados em parte por relatos preocupantes de adolescentes como Mullet, os legisladores federais e estaduais estão correndo para promulgar proteções em um esforço para acompanhar o ritmo dos aplicativos exploradores de IA.
Desde o início do ano passado, pelo menos duas dúzias de estados apresentaram projetos de lei para combater imagens sexualmente explícitas geradas por IA – conhecidas como deepfakes – de menores de 18 anos, de acordo com dados compilados pelo Centro Nacional para Crianças Desaparecidas e Exploradas, uma organização sem fins lucrativos. E vários estados promulgaram as medidas.
Entre eles, Dakota do Sul este ano aprovou uma lei que torna ilegal possuir, produzir ou distribuir material de abuso sexual gerado por IA representando menores reais. No ano passado, a Louisiana promulgou uma lei deepfake que criminaliza representações sexualmente explícitas de menores geradas por IA.
“Tive a sensação de urgência ao ouvir sobre esses casos e quanto dano estava sendo causado”, disse Representante Tina Orwallum democrata que redigiu a lei explícita e falsa do estado de Washington depois de ouvir sobre incidentes como o da Issaquah High.
Alguns legisladores e especialistas em proteção infantil dizem que tais regras são urgentemente necessárias porque a fácil disponibilidade de aplicativos de nudificação de IA está permitindo a produção e distribuição em massa de imagens gráficas falsas que podem potencialmente circular on-line por toda a vida, ameaçando a saúde mental, a reputação e a integridade física das meninas. segurança.
“Um menino com seu telefone no decorrer de uma tarde pode vitimar 40 meninas, menores de idade”, disse Yiota Sourasdiretor jurídico do Centro Nacional para Crianças Desaparecidas e Exploradas, “e então suas imagens são divulgadas”.
Nos últimos dois meses, incidentes de nudez falsa se espalharam nas escolas – inclusive em Richmond, Illinois.e Beverly Hills e praia de LagunaCalifórnia.
No entanto, poucas leis nos Estados Unidos protegem especificamente pessoas com menos de 18 anos de aplicações exploratórias de IA.
Isso ocorre porque muitos estatutos atuais que proíbem material de abuso sexual infantil ou pornografia não consensual para adultos – envolvendo fotos reais ou vídeos de pessoas reais – podem não cobrir imagens explícitas geradas por IA que usam rostos de pessoas reais, disse o representante dos EUA Joseph D. Morelle, um democrata. de nova York.
No ano passado, ele apresentou uma conta isso tornaria crime a divulgação de imagens íntimas geradas por IA de adultos ou menores identificáveis. Também daria às vítimas do deepfake, ou aos pais, o direito de processar os perpetradores individuais por danos.
“Queremos tornar isso tão doloroso para qualquer um que pense em fazê-lo, porque é um dano que simplesmente não pode ser desfeito”, disse Morelle. “Mesmo que pareça uma pegadinha para um garoto de 15 anos, isso é mortalmente sério.”
A deputada norte-americana Alexandria Ocasio-Cortez, outra democrata de Nova Iorque, apresentou recentemente uma conta semelhante para permitir que as vítimas instaurem processos civis contra perpetradores de deepfake.
Mas nenhum dos projetos de lei daria explicitamente às vítimas o direito de processar os desenvolvedores de aplicativos de nudificação de IA, uma medida que os advogados dizem que ajudaria a interromper a produção em massa de deepfakes sexualmente explícitos.
“É necessária legislação para impedir a comercialização, que é a raiz do problema”, disse Elizabeth Hanley, uma advogada em Washington que representa vítimas em casos de agressão e assédio sexual.
O código legal dos EUA proíbe a distribuição de gerado por computador material de abuso sexual infantil retratando menores identificáveis envolvidos em conduta sexualmente explícita. No mês passado, o Federal Bureau of Investigation emitiu um alerta alertando que tais material ilegal incluído imagens realistas de abuso sexual infantil geradas por IA
No entanto, representações falsas de adolescentes reais sem roupa, geradas por IA, podem não constituir “material de abuso sexual infantil”, dizem os especialistas, a menos que os procuradores possam provar que as imagens falsas cumprem os padrões legais para conduta sexualmente explícita ou para a exibição obscena de órgãos genitais.
Alguns advogados de defesa tentaram capitalizar a aparente ambiguidade jurídica. Um advogado que defende um estudante do ensino médio em um processo deepfake em Nova Jersey argumentou recentemente que o tribunal não deveria impedir temporariamente seu cliente, que havia criado imagens nuas de IA de uma colega de classe, de ver ou compartilhar as fotos porque elas não eram prejudiciais nem ilegal. As leis federais, argumentou o advogado num processo judicial, não foram concebidas para se aplicarem “a imagens sintéticas geradas por computador que nem sequer incluem partes reais do corpo humano”. (O réu finalmente concordou em não se opor a uma ordem de restrição sobre as imagens.)
Agora os estados estão trabalhando para aprovar leis para impedir a exploração de imagens de IA. Este mês, a Califórnia apresentou um projeto de lei para atualizar uma proibição estadual sobre material de abuso sexual infantil para cobrir especificamente material abusivo gerado por IA.
E os legisladores de Massachusetts estão encerrando legislação que criminalizaria o compartilhamento não consensual de imagens explícitas, incluindo deepfakes. Também exigiria que uma entidade estatal desenvolvesse um programa de desvio para menores que compartilharam imagens explícitas para ensiná-los sobre questões como o “uso responsável da inteligência artificial generativa”.
As punições podem ser severas. De acordo com a nova lei da Louisiana, qualquer pessoa que conscientemente crie, distribua, promova ou venda deepfakes sexualmente explícitos de menores pode enfrentar uma pena mínima de prisão de cinco a 10 anos.
Em dezembro, policiais do condado de Miami-Dade prenderam dois meninos do ensino médio por supostamente criar e compartilhar imagens falsas de IA nua de duas colegas de classe, de 12 e 13 anos, de acordo com documentos policiais obtidos pelo The New York Times por meio de solicitação de registros públicos. Os meninos foram acusados de crimes de terceiro grau sob uma lei estadual de 2022 proibindo representações sexuais alteradas sem consentimento. (O gabinete do procurador do condado de Miami-Dade disse que não poderia comentar um caso aberto.)
A nova lei deepfake no estado de Washington adota uma abordagem diferente.
Depois de saber do incidente em Issaquah High por sua filha, o senador Mullet procurou o deputado Orwall, um defensor dos sobreviventes de violência sexual e ex-assistente social. Orwall, que trabalhou em um dos primeiros projetos de lei de pornografia de vingança do estado, elaborou então um projeto de lei da Câmara para proibir a distribuição de imagens íntimas ou sexualmente explícitas geradas por IA, de menores ou adultos. (O Sr. Mullet, que patrocinou o projeto de lei complementar do Senado, agora é concorrendo a governador.)
Sob a lei resultante, os primeiros infratores poderiam enfrentar acusações de contravenção, enquanto as pessoas com condenações anteriores por divulgar imagens sexualmente explícitas enfrentariam acusações criminais. O novo estatuto do deepfake entra em vigor em junho.
“Não é chocante que estejamos atrasados nas proteções”, disse Orwall. “É por isso que queríamos avançar tão rapidamente.”