A Meta, como outras empresas líderes de tecnologia, passou o ano passado prometendo acelerar a implantação de inteligência artificial generativa. Hoje reconheceu que também deve responder aos perigos da tecnologia, anunciando uma política expandida de marcar imagens geradas por IA postadas no Facebook, Instagram e Threads com rótulos de advertência para informar as pessoas sobre suas origens artificiais.
No entanto, é pouco provável que grande parte dos meios de comunicação sintéticos que possam aparecer nas plataformas Meta sejam abrangidos pela nova política, deixando muitas lacunas através das quais os agentes maliciosos poderão escapar. “É um passo na direção certa, mas com desafios”, afirma Sam Gregory, diretor do programa da organização sem fins lucrativos Witness, que ajuda as pessoas a usar a tecnologia para apoiar os direitos humanos.
A Meta já rotula imagens geradas por IA feitas usando suas próprias ferramentas generativas de IA com a tag “Imagined with AI”, em parte procurando a “marca d’água” digital que seus algoritmos incorporam em sua saída. Agora a Meta diz que nos próximos meses também rotulará imagens de IA feitas com ferramentas oferecidas por outras empresas que incorporam marcas d’água em sua tecnologia.
A política deve reduzir o risco de disseminação de informações erradas ou desinformação por meio de imagens geradas por IA e passadas como fotos. Mas embora a Meta tenha dito que está trabalhando para apoiar a tecnologia de divulgação em desenvolvimento no Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock, a tecnologia ainda não está amplamente implantada. E estão disponíveis muitas ferramentas de geração de imagens de IA que não colocam marcas d’água em seus resultados, com a tecnologia se tornando cada vez mais fácil de acessar e modificar. “A única maneira de um sistema como esse ser eficaz é se uma ampla gama de ferramentas e plataformas geradoras participar”, diz Gregory.
Mesmo que haja um amplo apoio à marca d’água, não está claro quão robusta será a proteção que ela oferece. Não existe um padrão universalmente implantado, mas a Coalition for Content Provenance and Authenticity (C2PA), uma iniciativa fundada pela Adobe, ajudou as empresas a começarem a alinhar seu trabalho com o conceito. Mas a tecnologia desenvolvida até agora não é infalível. Em um estudo divulgado no ano passado, os pesquisadores descobriram que poderiam facilmente quebrar marcas d’água ou adicioná-las a imagens que não foram geradas pela IA para fazer parecer que sim.
Brecha maliciosa
Hany Farid, professor da Escola de Informação da UC Berkeley que aconselhou a iniciativa C2PA, diz que qualquer pessoa interessada em usar IA generativa de forma maliciosa provavelmente recorrerá a ferramentas que não coloquem marca d’água em seus resultados ou traiam sua natureza. Por exemplo, os criadores da chamada automática falsa usando a voz do presidente Joe Biden direcionada a alguns eleitores de New Hampshire no mês passado não acrescentaram qualquer divulgação de suas origens.
E ele acha que as empresas devem estar preparadas para que atores mal-intencionados ataquem qualquer método que tentem usar para identificar a proveniência do conteúdo. Farid suspeita que poderá ser necessário utilizar múltiplas formas de identificação em conjunto para identificar de forma robusta imagens geradas por IA, por exemplo, combinando marcas de água com tecnologia baseada em hash utilizada para criar listas de vigilância de material de abuso sexual infantil. E a marca d’água é um conceito menos desenvolvido para mídias geradas por IA, além de imagens, como áudio e vídeo.
“Embora as empresas estejam começando a incluir sinais em seus geradores de imagens, elas ainda não começaram a incluí-los em ferramentas de IA que geram áudio e vídeo na mesma escala, então ainda não podemos detectar esses sinais e rotular esse conteúdo de outras empresas, ”O porta-voz da Meta, Kevin McAlister, reconhece. “Enquanto a indústria trabalha para atingir esse recurso, estamos adicionando um recurso para as pessoas divulgarem quando compartilham vídeo ou áudio gerado por IA, para que possamos adicionar um rótulo a ele.”
As novas políticas da Meta podem ajudá-la a capturar mais conteúdo falso, mas nem toda mídia manipulada é gerada por IA. Uma decisão divulgada na segunda-feira pelo Conselho de Supervisão de especialistas independentes da Meta, que analisa algumas chamadas de moderação, manteve a decisão da empresa de deixar um vídeo do presidente Joe Biden que foi editado para fazer parecer que ele está tocando inapropriadamente o peito de sua neta. Mas o conselho disse que embora o vídeo, que não foi gerado por IA, não violasse as políticas atuais do Meta, ele deveria revisar e expandir suas regras para “mídia manipulada” abrangem mais do que apenas conteúdo gerado por IA.
McAlister, porta-voz da Meta, diz que a empresa está “revisando as orientações do Conselho de Supervisão e responderá publicamente às suas recomendações dentro de 60 dias, de acordo com o estatuto”. Farid diz que a lacuna nas políticas da Meta e o foco técnico apenas em imagens geradas por IA com marca d’água sugerem que o plano da empresa para a era da geração AI está incompleto.