Home Economia O lado negro dos geradores de imagens de IA de código aberto

O lado negro dos geradores de imagens de IA de código aberto

Por Humberto Marchezini


Seja através da carrancuda alta definição cara de um chimpanzé ou um psicodélico em tons de rosa e vermelho sósia de si mesmo, Reuven Cohen usa imagens geradas por IA para chamar a atenção das pessoas. “Sempre me interessei por arte, design e vídeo e gosto de ultrapassar limites”, diz ele – mas o consultor baseado em Toronto, que ajuda empresas a desenvolver ferramentas de IA, também espera aumentar a conscientização sobre os usos mais obscuros da tecnologia.

“Ele também pode ser treinado especificamente para ser horrível e ruim de várias maneiras”, diz Cohen. Ele é um fã da experimentação livre que foi desencadeada pela tecnologia de geração de imagens de código aberto. Mas essa mesma liberdade permite a criação de imagens explícitas de mulheres utilizadas para assédio.

Depois que imagens não consensuais de Taylor Swift se espalharam recentemente no X, a Microsoft adicionou novos controles ao seu gerador de imagens. Os modelos de código aberto podem ser controlados por praticamente qualquer pessoa e geralmente vêm sem proteções. Apesar dos esforços de alguns membros esperançosos da comunidade para dissuadir usos exploradores, o código aberto gratuito para todos é quase impossível de controlar, dizem os especialistas.

“O código aberto alimentou o abuso de imagens falsas e a pornografia não consensual. Isso é impossível de suavizar ou qualificar”, diz Henrique Ajderque passou anos pesquisando o uso prejudicial de IA generativa.

Ajder diz que, ao mesmo tempo em que está se tornando o favorito de pesquisadores, criativos como Cohen e acadêmicos que trabalham com IA, o software de geração de imagens de código aberto se tornou a base da pornografia deepfake. Algumas ferramentas baseadas em algoritmos de código aberto são desenvolvidas especificamente para usos lascivos ou de assédio, como aplicativos de “nudificação” que removem digitalmente roupas femininas em imagens.

Mas muitas ferramentas podem servir tanto para casos de uso legítimos quanto para casos de assédio. Um programa popular de troca de rosto de código aberto é usado por pessoas da indústria do entretenimento e como a “ferramenta preferida para maus atores” que fazem deepfakes não consensuais, diz Ajder. O gerador de imagens de alta resolução Stable Diffusion, desenvolvido pela startup Stability AI, afirma ter mais de 10 milhões de usuários e possui grades de proteção instaladas para evitar a criação explícita de imagens e restrição de políticas uso malicioso. Mas a empresa também abriu o código-fonte de uma versão do gerador de imagens em 2022 que é personalizável, e guias online explicam como contornar suas limitações integradas.

Enquanto isso, modelos menores de IA, conhecidos como LoRAs, facilitam o ajuste de um modelo de difusão estável para gerar imagens com um estilo, conceito ou pose específico, como a imagem de uma celebridade ou certos atos sexuais. Eles estão amplamente disponíveis em mercados de modelos de IA, como o Civitai, um site comunitário onde os usuários compartilham e baixam modelos. Lá, um criador de um plug-in Taylor Swift pediu a outros que não o usassem “para imagens NSFW”. No entanto, uma vez baixado, seu uso está fora do controle do seu criador. “A maneira como o código aberto funciona significa que será muito difícil impedir alguém de potencialmente sequestrá-lo”, diz Ajder.

4chan, o site de quadro de mensagens baseado em imagens com reputação de moderação caótica, é o lar de páginas dedicadas à pornografia deepfake não consensual, descobriu a WIRED, feita com programas disponíveis abertamente e modelos de IA dedicados exclusivamente a imagens sexuais. Os painéis de mensagens para imagens adultas estão repletos de nus não consensuais de mulheres reais gerados por IA, de artistas pornôs a atrizes como Cate Blanchett. A WIRED também observou usuários do 4chan compartilhando soluções alternativas para imagens NSFW usando o Dall-E 3 da OpenAI.

Esse tipo de atividade inspirou alguns usuários em comunidades dedicadas à criação de imagens de IA, inclusive no Reddit e no Discord, a tentar resistir ao mar de imagens pornográficas e maliciosas. Os criadores também expressam preocupação com o fato de o software ganhar reputação por imagens NSFW, incentivando outros a denunciar imagens representando menores no Reddit e em sites de hospedagem de modelos.





Source link

Related Articles

Deixe um comentário