Se alguém puder reunir uma base, é Taylor Swift.
Quando imagens falsas de Swift, sexualmente explícitas e provavelmente geradas por IA, circularam nas redes sociais esta semana, isso galvanizou seus fãs. Os Swifties encontraram frases e hashtags relacionadas às imagens e as inundaram com vídeos e fotos da atuação de Swift. “Protect Taylor Swift” se tornou viral, tornando-se uma tendência enquanto os Swifties se manifestavam não apenas contra os deepfakes de Swift, mas contra todas as imagens explícitas e não consensuais feitas de mulheres.
Swift, indiscutivelmente a mulher mais famosa do mundo atualmente, tornou-se vítima de uma forma de assédio muito frequente. Ela ainda não comentou publicamente as fotos, mas seu status lhe dá poder para exercer uma situação em que tantas mulheres ficaram com poucos recursos. A pornografia deepfake está se tornando mais comum à medida que a inteligência artificial generativa melhora: 113.000 vídeos deepfake foram enviados para os sites pornográficos mais populares nos primeiros nove meses de 2023, um aumento significativo para os 73.000 vídeos enviados ao longo de 2022. Em 2019, pesquisa de uma startup achar algo 96 por cento dos deepfakes na internet eram pornográficos.
O conteúdo é fácil de encontrar em mecanismos de busca e mídias sociais e afetou outras celebridades femininas e adolescentes. No entanto, muitas pessoas não compreendem toda a extensão do problema ou o seu impacto. Swift e a mania da mídia ao seu redor têm o potencial de mudar isso.
“Parece que este pode ser um daqueles eventos desencadeadores” que podem levar a mudanças legais e sociais em torno dos deepfakes não consensuais, diz Sam Gregory, diretor executivo da Witness, uma organização sem fins lucrativos focada no uso de imagens e vídeos para proteger os direitos humanos. Mas Gregory diz que as pessoas ainda não entendem o quão comum é a pornografia deepfake e o quão prejudicial e violadora ela pode ser para as vítimas.
Na verdade, esse desastre deepfake lembra o vazamento do iCloud em 2014, que fez com que fotos nuas de celebridades como Jennifer Lawrence e Kate Upton se espalhassem on-line, gerando apelos por maiores proteções às identidades digitais das pessoas. A Apple finalmente aprimorou os recursos de segurança.
Um punhado de estados temos leis sobre deepfakes não consensuais e também há medidas para proibi-los em nível federal. O deputado Joseph Morelle (D-Nova York) apresentou um conta no Congresso que tornaria ilegal criar e compartilhar pornografia deepfake sem o consentimento de uma pessoa. Outra casa conta da deputada Yvette Clarke (D-Nova York) busca dar recurso legal às vítimas de pornografia deepfake. (Republicano de Nova Jersey), que em novembro apresentou um projeto de lei que exigiria a rotulagem de conteúdo de IA, aproveitou o momento viral do Swift para chamar a atenção para seus esforços: “Se a vítima é Taylor Swift ou qualquer jovem em todo o nosso país – precisamos estabelecer salvaguardas para combater esta tendência alarmante”, disse Kean em um declaração.
Esta não é a primeira vez que Swift ou Swifties tentam responsabilizar plataformas e pessoas. Em 2017, Swift ganhou uma ação judicial movida contra um DJ de rádio que ela alegou que a apalpou durante um encontro e saudação. Ela era premiado com US$ 1— o valor pelo qual ela processou e o que seu advogado Douglas Baldridge chamou de uma soma simbólica “cujo valor é imensurável para todas as mulheres nesta situação”.