O Google enfatizou que o campo de metadados em “Sobre esta imagem” não será uma maneira infalível de ver as origens ou proveniência de uma imagem. Ele foi projetado principalmente para fornecer mais contexto ou alertar o usuário casual da Internet se uma imagem for muito mais antiga do que parece – sugerindo que agora pode ser reaproveitada – ou se já foi sinalizada como problemática na Internet antes.
Proveniência, inferência, marca d’água e alfabetização midiática: Estas são apenas algumas das palavras e frases usadas pelas equipes de pesquisa que agora têm a tarefa de identificar imagens geradas por computador à medida que elas se multiplicam exponencialmente. Mas todas essas ferramentas são, de certa forma, falíveis, e a maioria das entidades – incluindo o Google – reconhece que a detecção de conteúdo falso provavelmente terá que ser uma abordagem multifacetada.
Kate Knibbs da WIRED relatou recentemente sobre marcas d’água, carimbo digital de textos e fotos online para que suas origens possam ser rastreadas, como uma das estratégias mais promissoras; tão promissor que OpenAI, Alphabet, Meta, Amazon e DeepMind do Google estão desenvolvendo tecnologia de marca d’água. Knibbs também relatou a facilidade com que grupos de pesquisadores conseguiram “eliminar” certos tipos de marcas d’água de imagens online.
A Reality Defender, uma startup de Nova York que vende sua tecnologia de detecção de deepfake para agências governamentais, bancos e empresas de tecnologia e mídia, acredita que é quase impossível saber a “verdade básica” das imagens de IA. Ben Colman, cofundador e executivo-chefe da empresa, diz que estabelecer a proveniência é complicado porque exige a adesão, de cada fabricante que vende uma máquina de criação de imagens, em torno de um conjunto específico de padrões. Ele também acredita que a marca d’água pode fazer parte de um kit de ferramentas de detecção de IA, mas “não é a ferramenta mais forte do kit de ferramentas”.
O Reality Defender concentra-se, em vez disso, na inferência – essencialmente, usando mais IA para detectar IA. Seu sistema verifica ativos de texto, imagens ou vídeo e fornece uma probabilidade de 1 a 99 por cento de que o ativo seja manipulado de alguma forma.
“No mais alto nível, discordamos de qualquer exigência que coloque sobre o consumidor o ônus de distinguir o real do falso”, diz Colman. “Com os avanços na IA e apenas com a fraude em geral, mesmo os PhDs em nossa sala não conseguem dizer a diferença entre o real e o falso no nível do pixel.”
Até esse ponto, o “Sobre esta imagem” do Google existirá sob a suposição de que a maioria dos usuários da Internet aparte de pesquisadores e jornalistas vão querer saber mais sobre esta imagem – e que o contexto fornecido ajudará a alertar a pessoa se algo estiver errado. O Google é também, digno de nota, a entidade que nos últimos anos foi pioneira na arquitetura do transformador que compreende o T no ChatGPT; o criador de uma ferramenta generativa de IA chamada Bard; o criador de ferramentas como Magic Eraser e Magic Memory que alteram imagens e distorcem a realidade. É o mundo generativo da IA do Google, e a maioria de nós está apenas tentando descobrir o caminho através dele.