No mês passado, no Fórum Económico Mundial em Davos, Suíça, Nick Clegg, presidente de assuntos globais da Meta, classificou um esforço nascente para detectar conteúdo gerado artificialmente como “a tarefa mais urgente” que a indústria tecnológica enfrenta hoje.
Na terça-feira, Clegg propôs uma solução. Meta disse que iria promover padrões tecnológicos que empresas de todo o setor poderiam usar para reconhecer marcadores em materiais de foto, vídeo e áudio que sinalizariam que o conteúdo foi gerado usando inteligência artificial.
Os padrões poderiam permitir que as empresas de mídia social identificassem rapidamente o conteúdo gerado com IA que foi postado em suas plataformas e adicionar um rótulo a esse material. Se forem amplamente adotados, os padrões poderão ajudar a identificar conteúdo gerado por IA de empresas como Google, OpenAI e Microsoft, Adobe, Midjourney e outras que oferecem ferramentas que permitem às pessoas criar publicações artificiais de forma rápida e fácil.
“Embora esta não seja uma resposta perfeita, não queríamos permitir que o perfeito fosse inimigo do bom”, disse Clegg numa entrevista.
Ele acrescentou que espera que este esforço seja um grito de guerra para que as empresas de todo o setor adotem padrões para detectar e sinalizar que o conteúdo é artificial, para que seja mais simples para todas elas reconhecê-lo.
À medida que os Estados Unidos entram num ano de eleições presidenciais, os observadores da indústria acreditam que as ferramentas de IA serão amplamente utilizadas para publicar conteúdo falso para desinformar os eleitores. No ano passado, as pessoas usaram IA para criar e divulgar vídeos falsos do presidente Biden fazendo declarações falsas ou inflamadas. O gabinete do procurador-geral em New Hampshire também está investigando uma série de ligações automáticas que pareciam empregar uma voz de Biden gerada por IA, que instava as pessoas a não votarem em uma primária recente.
A Meta, proprietária do Facebook, Instagram, WhatsApp e Messenger, está numa posição única porque está a desenvolver tecnologia para estimular a ampla adoção de ferramentas de IA pelos consumidores, ao mesmo tempo que é a maior rede social do mundo capaz de distribuir conteúdo gerado por IA. Clegg disse que a posição da Meta lhe deu uma visão específica tanto do lado da geração quanto do lado da distribuição da questão.
Meta está se concentrando em uma série de especificações tecnológicas chamadas IPTC e C2PA padrões. São informações que especificam se uma mídia digital é autêntica nos metadados do conteúdo. Metadados são as informações subjacentes incorporadas no conteúdo digital que fornecem uma descrição técnica desse conteúdo. Ambos os padrões já são amplamente utilizados por organizações de notícias e fotógrafos para descrever fotos ou vídeos.
A Adobe, que fabrica o software de edição Photoshop, e uma série de outras empresas de tecnologia e mídia passaram anos pressionando seus pares para adotar o padrão C2PA e formaram o Iniciativa de Autenticidade de Conteúdo. A iniciativa é uma parceria entre dezenas de empresas – incluindo o The New York Times – para combater a desinformação e “adicionar uma camada de proveniência inviolável a todos os tipos de conteúdo digital, começando com fotos, vídeos e documentos”, de acordo com a iniciativa.
As empresas que oferecem ferramentas de geração de IA poderiam adicionar os padrões aos metadados dos vídeos, fotos ou arquivos de áudio que ajudaram a criar. Isso sinalizaria para redes sociais como Facebook, Twitter e YouTube que tal conteúdo era artificial quando carregado em suas plataformas. Essas empresas, por sua vez, poderiam adicionar rótulos que indicassem que essas postagens foram geradas por IA para informar os usuários que as visualizaram nas redes sociais.
Meta e outros também exigem que os usuários que postam conteúdo de IA identifiquem se o fizeram ao enviá-lo para os aplicativos das empresas. Não fazer isso resulta em penalidades, embora as empresas não tenham detalhado quais podem ser essas penalidades.
Clegg também disse que se a empresa determinasse que uma postagem criada ou alterada digitalmente “cria um risco particularmente alto de enganar materialmente o público sobre uma questão importante”, a Meta poderia adicionar um rótulo mais proeminente à postagem para dar ao público mais informação e contexto relativos à sua proveniência.
A tecnologia de IA está avançando rapidamente, o que estimulou os pesquisadores a tentarem acompanhar o desenvolvimento de ferramentas sobre como detectar conteúdo falso online. Embora empresas como Meta, TikTok e OpenAI tenham desenvolvido formas de detectar esse tipo de conteúdo, os tecnólogos encontraram rapidamente maneiras de contornar essas ferramentas. Vídeo e áudio gerados artificialmente provaram ser ainda mais difíceis de detectar do que fotos de IA.
(A New York Times Company está processando a OpenAI e a Microsoft por violação de direitos autorais pelo uso de artigos do Times para treinar sistemas de inteligência artificial.)
“Os maus atores sempre tentarão contornar quaisquer padrões que criamos”, disse Clegg. Ele descreveu a tecnologia como uma “espada e um escudo” para a indústria.
Parte dessa dificuldade decorre da natureza fragmentada da forma como as empresas de tecnologia estão abordando o assunto. No outono passado, TikTok anunciou uma nova política isso exigiria que seus usuários adicionassem rótulos aos vídeos ou fotos que eles enviaram e que foram criados usando AI YouTube anunciado uma iniciativa semelhante em Novembro.
A nova proposta da Meta tentaria unir alguns desses esforços. Outros esforços da indústria, como o Parceria em IAreuniram dezenas de empresas para discutir soluções semelhantes.
Clegg disse esperar que mais empresas concordem em participar da norma, especialmente antes das eleições presidenciais.
“Sentimos particularmente forte que, durante este ano eleitoral, não seria justificado esperar que todas as peças do quebra-cabeça se encaixassem antes de agir”, disse ele.