Muito mais atenção foi dada a imagens suspeitas que não apresentavam sinais de adulteração de IA, como o vídeo do diretor de um hospital bombardeado em Gaza dando uma entrevista coletiva – chamada de “IA gerada” por alguns – que foi filmado de diferentes pontos de vista por vários fontes.
Outros exemplos foram mais difíceis de categorizar: Os militares israelitas divulgaram uma gravação do que descreveram como uma conversa grampeada entre dois membros do Hamas, mas o que alguns ouvintes disseram foi áudio falsificado (The New York Times, a BBC e CNN relataram que ainda não verificaram a conversa).
Numa tentativa de discernir a verdade da IA, alguns utilizadores das redes sociais recorreram a ferramentas de deteção, que afirmam detectar a manipulação digital, mas que se revelaram longe de serem fiáveis. Um teste do The Times descobriu que os detectores de imagens tinham um histórico irregular, às vezes diagnosticando erroneamente imagens que eram criações óbvias de IA ou rotulando fotos reais como inautênticas.
Nos primeiros dias da guerra, Netanyahu compartilhou uma série de imagens no X, alegando que eram “fotos horríveis de bebês assassinados e queimados” pelo Hamas. Quando o comentarista conservador Ben Shapiro amplificado Em uma das imagens do X, ele foi repetidamente acusado de espalhar conteúdo gerado por IA.
Uma postagem, que obteve mais de 21 milhões de visualizações antes de ser removida, afirmava ter provas de que a imagem do bebê era falsa: uma captura de tela do AI or Not, uma ferramenta de detecção, identificando a imagem como “gerada por IA”. A empresa posteriormente corrigiu essa descoberta em X, afirmando que seu resultado foi “inconclusivo” porque a imagem foi comprimida e alterada para obscurecer detalhes de identificação; a empresa também disse que refinou seu detector.
“Percebemos que toda tecnologia desenvolvida foi, em determinado momento, usada para o mal”, disse Anatoly Kvitnitsky, executivo-chefe da AI or Not, que tem sede na área da baía de São Francisco e tem seis funcionários. “Chegamos à conclusão que estamos tentando fazer o bem, vamos manter o serviço ativo e fazer o possível para garantir que somos transmissores da verdade. Mas pensamos sobre isso – estamos causando mais confusão, mais caos?”
AI or Not está trabalhando para mostrar aos usuários quais partes de uma imagem são suspeitas de serem geradas por IA, disse Kvitnitsky.
Os serviços de detecção de IA disponíveis poderiam ser potencialmente úteis como parte de um conjunto maior de ferramentas, mas são perigosos quando tratados como a palavra final sobre autenticidade de conteúdo, disse Henry Ajder, especialista em mídia manipulada e sintética.
As ferramentas de detecção de deepfake, disse ele, “fornecem uma solução falsa para um problema muito mais complexo e difícil de resolver”.
Em vez de depender de serviços de detecção, iniciativas como a Coalition for Content Provenance and Authenticity e empresas como a Google estão a explorar tácticas que identificariam a origem e o histórico dos ficheiros multimédia. As soluções estão longe de ser perfeitas – dois grupos dos pesquisadores descobriram recentemente que a tecnologia existente de marca d’água é fácil de remover ou evadir – mas os proponentes dizem que isso poderia ajudar a restaurar alguma confiança na qualidade do conteúdo.
“Provar o que é falso será um esforço inútil e vamos apenas ferver o oceano tentando fazê-lo”, disse Chester Wisniewski, executivo da empresa de segurança cibernética Sophos. “Isso nunca vai funcionar e precisamos apenas redobrar os esforços para começar a validar o que é real.”
Por enquanto, os utilizadores das redes sociais que procuram enganar o público estão a confiar muito menos em imagens fotorrealistas de IA do que em imagens antigas de conflitos ou desastres anteriores, que retratam falsamente como sendo a situação actual em Gaza, de acordo com Alex Mahadevan, director do Poynter. programa de alfabetização midiática MediaWise.
“As pessoas acreditarão em qualquer coisa que confirme suas crenças ou as emocione”, disse ele. “Não importa quão bom seja, ou quão novo pareça, ou qualquer coisa assim.”