Mas não é só que os modelos não conseguem reconhecer sotaques, idiomas, sintaxe ou rostos menos comuns em países ocidentais. “Muitas das ferramentas iniciais de detecção de deepfake foram treinadas em mídia de alta qualidade”, diz Gregory. Mas em grande parte do mundo, incluindo a África, Marcas de smartphones chinesas que oferecem recursos simplificados dominam o mercado. As fotos e vídeos que esses telefones conseguem produzir são de qualidade muito inferior, confundindo ainda mais os modelos de detecção, diz Ngamita.
Gregory diz que alguns modelos são tão sensíveis que até mesmo ruído de fundo em um pedaço de áudio, ou compactação de um vídeo para mídia social, pode resultar em um falso positivo ou negativo. “Mas essas são exatamente as circunstâncias que você encontra no mundo real, detecção de problemas”, ele diz. As ferramentas gratuitas e públicas às quais a maioria dos jornalistas, verificadores de fatos e membros da sociedade civil provavelmente têm acesso também são “as que são extremamente imprecisas, em termos de lidar tanto com a desigualdade de quem é representado nos dados de treinamento quanto com os desafios de lidar com esse material de qualidade inferior”.
A IA generativa não é a única maneira de criar mídia manipulada. Os chamados cheapfakes, ou mídia manipulada pela adição de rótulos enganosos ou simplesmente desacelerando ou editando áudio e vídeo, também são muito comuns no Sul Global, mas podem ser erroneamente sinalizados como manipulados por IA por modelos defeituosos ou pesquisadores não treinados.
Diya se preocupa que grupos que usam ferramentas que são mais propensas a sinalizar conteúdo de fora dos EUA e da Europa como gerado por IA podem ter sérias repercussões em um nível político, encorajando legisladores a reprimir problemas imaginários. “Há um risco enorme em termos de inflar esses tipos de números”, ela diz. E desenvolver novas ferramentas dificilmente é uma questão de apertar um botão.
Assim como qualquer outra forma de IA, construir, testar e executar um modelo de detecção requer acesso a energia e data centers que simplesmente não estão disponíveis em grande parte do mundo. “Se você falar sobre IA e soluções locais aqui, é quase impossível sem o lado computacional das coisas para nós sequer executarmos qualquer um dos nossos modelos que estamos pensando em criar”, diz Ngamita, que está baseado em Gana. Sem alternativas locais, pesquisadores como Ngamita ficam com poucas opções: pagar pelo acesso a uma ferramenta pronta para uso como a oferecida pelo Reality Defender, cujos custos podem ser proibitivos; usar ferramentas gratuitas imprecisas; ou tentar obter acesso por meio de uma instituição acadêmica.
Por enquanto, Ngamita diz que sua equipe teve que fazer parceria com uma universidade europeia para onde eles podem enviar pedaços de conteúdo para verificação. A equipe de Ngamita tem compilado um conjunto de dados de possíveis instâncias de deepfake de todo o continente, o que ele diz ser valioso para acadêmicos e pesquisadores que estão tentando diversificar os conjuntos de dados de seus modelos.
Mas enviar dados para outra pessoa também tem suas desvantagens. “O tempo de atraso é bem significativo”, diz Diya. “Leva pelo menos algumas semanas até que alguém possa dizer com segurança que isso é gerado por IA, e, a essa altura, esse conteúdo, o dano já foi feito.”
Gregory diz que a Witness, que administra seu próprio programa de detecção de resposta rápida, recebe um “número enorme” de casos. “Já é desafiador lidar com eles no prazo que os jornalistas da linha de frente precisam e no volume que eles estão começando a encontrar”, ele diz.
Mas Diya diz que focar tanto na detecção pode desviar financiamento e apoio de organizações e instituições que contribuem para um ecossistema de informação mais resiliente em geral. Em vez disso, ela diz, o financiamento precisa ir para veículos de notícias e organizações da sociedade civil que podem gerar um senso de confiança pública. “Não acho que é para lá que o dinheiro está indo”, ela diz. “Acho que está indo mais para a detecção.”