A OpenAI divulgou um rascunho de documentação na quarta-feira, explicando como deseja que o ChatGPT e suas outras tecnologias de IA se comportem. Parte do longo Documento de especificação do modelo revela que a empresa está explorando um salto para a pornografia e outros conteúdos explícitos.
OpenAI’s políticas de uso atualmente proíbe materiais sexualmente explícitos ou mesmo sugestivos, mas uma nota de “comentário” em parte das especificações do modelo relacionada a essa regra diz que a empresa está considerando como permitir tal conteúdo.
“Estamos explorando se podemos fornecer de forma responsável a capacidade de gerar conteúdo NSFW em contextos apropriados à idade por meio da API e do ChatGPT”, diz a nota, usando um termo coloquial para conteúdo considerado contextos “não seguros para o trabalho”. “Esperamos compreender melhor as expectativas dos usuários e da sociedade sobre o comportamento do modelo nesta área.”
O documento Model Spec diz que o conteúdo NSFW “pode incluir erotismo, violência extrema, calúnias e palavrões não solicitados”. Não está claro se as explorações da OpenAI sobre como criar conteúdo NSFW de forma responsável prevêem afrouxar apenas ligeiramente a sua política de utilização, por exemplo, para permitir a geração de texto erótico, ou de forma mais ampla, para permitir descrições ou representações de violência.
Em resposta às perguntas da WIRED, a porta-voz da OpenAI, Grace McGuire, disse que o Model Spec foi uma tentativa de “trazer mais transparência sobre o processo de desenvolvimento e obter uma seção transversal de perspectivas e feedback do público, formuladores de políticas e outras partes interessadas”. Ela se recusou a compartilhar detalhes sobre o que envolve a exploração da geração de conteúdo explícito da OpenAI ou que feedback a empresa recebeu sobre a ideia.
No início deste ano, a diretora de tecnologia da OpenAI, Mira Murati, disse Jornal de Wall Street que ela era “não tenho certeza” se a empresa permitir no futuro que representações de nudez sejam feitas com a ferramenta de geração de vídeo da empresa, Sora.
A pornografia gerada por IA tornou-se rapidamente uma das maiores e mais preocupantes aplicações do tipo de tecnologia de IA generativa em que a OpenAI foi pioneira. A chamada pornografia deepfake – imagens ou vídeos explícitos feitos com ferramentas de IA que retratam pessoas reais sem o seu consentimento – tornou-se uma ferramenta comum de assédio contra mulheres e meninas. Em março, a WIRED informou sobre o que parecem ser os primeiros menores de idade nos EUA presos por distribuir nus gerados por IA sem consentimento, depois que a polícia da Flórida acusou dois adolescentes por fazerem imagens retratando colegas estudantes do ensino médio.
“As violações da privacidade íntima, incluindo vídeos de sexo deepfake e outras imagens íntimas sintetizadas não consensuais, são galopantes e profundamente prejudiciais”, diz Danielle Keats Citron, professora da Faculdade de Direito da Universidade da Virgínia que estudou o problema. “Temos agora um apoio empírico claro que mostra que tais abusos custam aos indivíduos oportunidades cruciais, incluindo trabalhar, falar e estar fisicamente seguros.”
Citron chama a potencial adoção de conteúdo explícito de IA pela OpenAI de “alarmante”.
Como as políticas de uso da OpenAI proíbem a representação sem permissão, imagens explícitas não consensuais permaneceriam proibidas mesmo que a empresa permitisse que os criadores gerassem material NSFW. Mas resta saber se a empresa poderia efetivamente moderar a geração explícita para evitar que malfeitores usassem as ferramentas. A Microsoft fez alterações em uma de suas ferramentas generativas de IA depois que 404 mídia relatou que foi usado para criar imagens explícitas de Taylor Swift que foram distribuídas na plataforma social X.
Reportagem adicional de Reece Rogers