Algumas semanas atrás, uma busca no Google por “deepfake nudes jennifer aniston” trouxe pelo menos sete resultados de alto nível que pretendiam ter imagens explícitas da atriz geradas por IA. Agora, elas desapareceram.
A gerente de produtos do Google, Emma Higham, diz que novos ajustes na forma como a empresa classifica os resultados, que foram lançados este ano, já reduziram a exposição a imagens explícitas falsas em mais de 70 por cento em pesquisas que buscam esse conteúdo sobre uma pessoa específica. Onde resultados problemáticos podem ter aparecido antes, os algoritmos do Google estão visando promover artigos de notícias e outros conteúdos não explícitos. A pesquisa Aniston agora retorna artigos como “Como a pornografia de IA deepfake de Taylor Swift representa uma ameaça” e outros links como um alerta do procurador-geral de Ohio sobre “golpes de endosso de celebridades deepfake” que têm como alvo os consumidores.
“Com essas mudanças, as pessoas podem ler sobre o impacto que os deepfakes estão tendo na sociedade, em vez de ver páginas com imagens falsas não consensuais”, escreveu Higham em uma postagem de blog da empresa na quarta-feira.
A mudança na classificação ocorre após uma investigação da WIRED neste mês, que revelou que, nos últimos anos, a gerência do Google rejeitou inúmeras ideias propostas por funcionários e especialistas externos para combater o crescente problema de retratos íntimos de pessoas divulgados online sem sua permissão.
Embora o Google tenha facilitado a solicitação de remoção de conteúdo explícito indesejado, as vítimas e seus defensores pediram medidas mais proativas. Mas a empresa tentou evitar se tornar uma reguladora demais da internet ou prejudicar o acesso à pornografia legítima. Na época, um porta-voz do Google disse em resposta que várias equipes estavam trabalhando diligentemente para reforçar as salvaguardas contra o que ele chama de imagens explícitas não consensuais (NCEI).
A crescente disponibilidade de geradores de imagens de IA, incluindo alguns com poucas restrições em seu uso, levou a um aumento no NCEI, de acordo com os defensores das vítimas. As ferramentas tornaram fácil para praticamente qualquer um criar imagens explícitas falsas de qualquer indivíduo, seja um colega de escola ou uma megacelebridade.
Em março, uma análise da WIRED descobriu que o Google havia recebido mais de 13.000 demandas para remover links para uma dúzia dos sites mais populares que hospedavam deepfakes explícitos. O Google removeu resultados em cerca de 82% dos casos.
Como parte da nova repressão do Google, Higham diz que a empresa começará a aplicar três das medidas para reduzir a capacidade de descoberta de imagens explícitas reais, mas indesejadas, para aquelas que são sintéticas e indesejadas. Depois que o Google honrar uma solicitação de remoção de um deepfake sexualizado, ele tentará manter duplicatas fora dos resultados. Ele também filtrará imagens explícitas de resultados em consultas semelhantes às citadas na solicitação de remoção. E, finalmente, sites sujeitos a “um alto volume” de solicitações de remoção bem-sucedidas enfrentarão rebaixamento nos resultados de pesquisa.
“Esses esforços são projetados para dar mais tranquilidade às pessoas, especialmente se elas estiverem preocupadas com a possibilidade de conteúdo semelhante aparecer no futuro”, escreveu Higham.
O Google reconheceu que as medidas não funcionam perfeitamente, e ex-funcionários e defensores das vítimas disseram que eles poderiam ir muito além. O mecanismo de busca alerta proeminentemente as pessoas nos EUA que procuram imagens nuas de crianças que tal conteúdo é ilegal. A eficácia do aviso não é clara, mas é um impedimento potencial apoiado pelos defensores. No entanto, apesar das leis contra o compartilhamento de NCEI, avisos semelhantes não aparecem para pesquisas que buscam deepfakes sexuais de adultos. O porta-voz do Google confirmou que isso não mudará.