Home Economia As multidões do Rally de Kamala Harris não são geradas por IA. Veja como você pode saber

As multidões do Rally de Kamala Harris não são geradas por IA. Veja como você pode saber

Por Humberto Marchezini


Basta dizer que esta montanha de evidências de fontes diretas pesa mais do que imagens marcadas de comentadores conservadores como Chuck Callesto e Dinesh D’Souzaambos os quais foram capturado espalhando desinformação eleitoral no passado.

Quando se trata de acusações de falsificação de IA, quanto mais fontes de informação díspares você tiver, melhor. Enquanto uma única fonte pode facilmente gerar uma imagem de aparência plausível de um evento, várias fontes independentes mostrando o mesmo evento de vários ângulos têm muito menos probabilidade de estarem envolvidas na mesma farsa. Fotos que se alinham com evidências de vídeo são ainda melhores, especialmente porque criar vídeos longos convincentes de humanos ou cenas complexas continua sendo um desafio para muitas ferramentas de IA.

Também é importante rastrear a fonte original de qualquer suposta imagem de IA que você esteja vendo. É incrivelmente fácil para um usuário de mídia social criar uma imagem gerada por IA, alegar que ela veio de uma reportagem ou filmagem ao vivo de um evento e, então, usar falhas óbvias naquela imagem falsa como “evidência” de que o evento em si foi falsificado. Links para imagens originais do próprio site ou conta verificada de uma fonte original são muito mais confiáveis ​​do que capturas de tela que poderiam ter se originado em qualquer lugar (e/ou sido modificadas por qualquer pessoa).

Sinais indicadores

Embora rastrear fontes originais e/ou corroborantes seja útil para um grande evento de notícias como um comício presidencial, confirmar a autenticidade de imagens e vídeos de fonte única pode ser mais complicado. Ferramentas como o detector de imagem Winston AI ou IsItAI.com afirmam usar modelos de aprendizado de máquina para descobrir se uma imagem é ou não IA. Mas enquanto as técnicas de detecção continuam a evoluiresses tipos de ferramentas geralmente são baseados em teorias não comprovadas que não foram demonstradas como confiáveis ​​em nenhum estudo amplo, tornando-as perspectiva de falsos positivos/negativos um risco real.

Escrevendo no LinkedIno professor da UC Berkeley, Hany Farid, citou dois Laboratórios GetReal modelos como não mostrando “nenhuma evidência de geração de IA” nas fotos do comício de Harris postadas por Trump. Farid continuou citando partes específicas da imagem que apontam para sua autenticidade.

“O texto nas placas e no avião não mostra nenhum dos sinais usuais de IA generativa”, escreve Farid. “Embora a falta de evidência de manipulação não seja evidência de que a imagem é real. Não encontramos evidências de que esta imagem seja gerada por IA ou alterada digitalmente.”

E mesmo quando partes de uma foto parecem ser sinais absurdos de manipulação de IA (à la mãos deformadas em alguns modelos de imagem de IA), considere que pode haver uma explicação simples para algumas ilusões de ótica aparentes. A BBC notas que a falta de reflexo da multidão no avião em algumas fotos do comício de Harris pode ser causada por uma grande área vazia de asfalto entre o avião e a multidão, como mostrado em ângulos reversos da cena. Simplesmente circular coisas de aparência estranha em uma foto com um marcador vermelho não é necessariamente uma evidência forte de manipulação de IA por si só.





Source link

Related Articles

Deixe um comentário