Home Saúde Taylor Swift Deepfakes destaca necessidade de proteção legal

Taylor Swift Deepfakes destaca necessidade de proteção legal

Por Humberto Marchezini


DImagens pornográficas falsas de Taylor Swift foram compartilhadas na plataforma de mídia social X, destacando a falta de proteção à privacidade digital para vítimas em todo o mundo.

Não se sabe quem gerou as imagens falsas de Swift, que foram vistos dezenas de milhões de vezes desde quarta-feira. Na sexta-feira, X disse sua equipe estava trabalhando para remover toda nudez não consensual de seu site, o que é “estritamente proibido”.

“Estamos comprometidos em manter um ambiente seguro e respeitoso para todos os usuários”, afirmou a empresa. Swift não comentou publicamente sobre o assunto.

Swift pode ser a última celebridade alvo de deepfakes, mas Carrie Goldberg, uma advogada de Nova York que trabalha com vítimas de abuso de tecnologia, diz que tem visto um aumento no número de crianças e não-celebridades que são vítimas dessa forma de abuso online ao longo do ano. Década passada. “Nosso país fez muito progresso na proibição da disseminação não consensual de imagens de nudez, mas agora os deepfakes estão preenchendo essa lacuna (de proteções legais)”, diz Goldberg.

Deepfakes – arquivos de mídia manipulados que retratam uma imagem ou vídeo falso de uma pessoa – têm vem aumentando em popularidade ao longo dos últimos anos. Estimativas anteriores da Wired mostram que nos primeiros nove meses de 2023, pelo menos 244.635 vídeos deepfake foram carregados nos 35 principais sites que hospedam pornografia deepfake.

Dez estados – como Virgínia e Texas – têm leis criminais contra deepfakes, mas atualmente não existe nenhuma lei federal em vigor. Em maio de 2023, o deputado Joe Morelle, um democrata de Nova York, introduziu a Lei de Prevenção de Deepfakes de Imagens Íntimas para criminalizar o compartilhamento não consensual de imagens sexuais deepfake online. não vi nenhum progresso desde. Em janeiro, os legisladores também introduziram a Lei Sem Réplicas Falsas de Inteligência Artificial e Duplicações Não Autorizadas (Sem Fraude de IA), que protegeria os americanos de terem suas imagens e voz manipuladas.

Os defensores alertam que esta questão representa um risco especialmente para as mulheres jovens, que são esmagadoramente vítimas de deepfakes. “Deepfakes são um sintoma de um problema mais amplo de violência online contra mulheres e meninas que historicamente não tem sido priorizado pelas empresas de tecnologia e pela sociedade”, diz Adam Dodge, fundador da Endtab (Ending Tech-Enabled Abuse), uma empresa de educação em segurança digital. e empresa de treinamento para vítimas de assédio online. “Tenho esperança de que este ataque a Taylor Swift ilumine uma questão que já existe há anos e que realmente vejamos ações para prevenir e responsabilizar as pessoas que estão criando e compartilhando essas imagens.”

Proteções legais para vítimas

Deepfakes, que Dodge descreve como uma “forma de troca de rosto”, são assustadoramente fáceis de fazer. Os usuários não precisam de nenhuma experiência com codificação ou IA para gerá-los. Em vez disso, as plataformas online podem gerá-los para usuários online com apenas alguns cliques e o envio de uma foto ou vídeo. Deepfakes podem ser usados ​​para conteúdo explícito, mas também podem ser usados ​​para gerar mensagens de áudio falsas que têm o potencial de perturbar eleições, por exemplo.

Especialistas alertam que existe um sistema expansivo de empresas e indivíduos que se beneficiam e podem ser responsabilizados por deepfakes. “Começando no topo, há um mecanismo de busca onde você pode pesquisar ‘Como faço para fazer um deepfake’ que lhe dará vários links”, diz Goldberg. “Existem os próprios produtos que existem apenas para fins maliciosos… o indivíduo que está realmente usando o produto para criar o banco de dados e, em seguida, os visualizadores que podem estar (compartilhando) o produto.”

Dodge diz que como a internet facilita a disseminação de conteúdo tão rapidamente – os deepfakes do Swift, por exemplo, tiveram mais de 27 milhões de visualizações e 260 mil curtidas em 19 horas, Notícias da NBC relatórios—é quase impossível remover todo o conteúdo falso da Internet. “É profundamente preocupante quando o tempo é essencial e a cada segundo que a imagem aparece ela é compartilhada e baixada em uma taxa exponencial”, diz ele. Empresas como Google e X proíbem o compartilhamento de qualquer mídia enganosa, mas ainda pode demorar para agir ou remover os arquivos de mídia.

É difícil responsabilizar legalmente as plataformas de redes sociais pela disseminação de deepfakes devido às proteções previstas na Seção 230 da Lei de Decência nas Comunicações. A lei diz que “nenhum provedor ou usuário de um serviço de computador interativo deve ser tratado como editor ou orador de qualquer informação fornecida por outro provedor de conteúdo de informação”, o que significa que plataformas como Instagram ou Facebook não são responsáveis ​​pelo conteúdo de terceiros carregado em seu site.

Goldberg, no entanto, diz que é possível responsabilizar uma empresa se houver um recurso exclusivo que permita que essa plataforma perpetue danos. Foi assim que Goldberg ganhou um caso para fechar o Omegle, uma sala de bate-papo on-line que permitia streaming de vídeo anônimo, em novembro de 2023 para facilitar o abuso sexual infantil.

Ainda assim, Dodge alerta que os EUA carecem da infraestrutura necessária para ajudar adequadamente as vítimas de deepfakes. “A aplicação da lei não está devidamente treinada ou equipada para perseguir esses agressores anônimos e, como resultado, as vítimas que vivenciaram isso encontram obstáculos à justiça muito rapidamente”, diz ele. Parte disso ocorre porque os investigadores podem não entender como funcionam os deepfakes; Dodge diz que muitas vítimas com quem ele conversou têm que assumir o fardo de descobrir como remover as imagens sozinhas.

A solução, dizem os especialistas, exigiria que a lei deixasse de proteger as empresas que lucram com este tipo de imagens e vídeos, especialmente porque são tão fáceis de gerar. “Não podemos impedir que alguém tire uma fotografia nossa… não se pode culpar a vítima aqui”, diz Goldberg. “Tudo o que eles fizeram foi existir.”





Source link

Related Articles

Deixe um comentário