Home Entretenimento A IA tornou a epidemia de desinformação entre Israel e Hamas muito, muito pior

A IA tornou a epidemia de desinformação entre Israel e Hamas muito, muito pior

Por Humberto Marchezini


Desde outubro Após o ataque de militantes do Hamas contra Israel, tornou-se quase impossível evitar imagens da carnificina e da devastação que se abateu sobre Israel e os palestinianos que vivem na sitiada Faixa de Gaza. Online, já é difícil analisar a enxurrada de desinformação, imagens recicladas de conflitos passados ​​e narrativas contraditórias para determinar o que realmente está acontecendo no terreno – e a tecnologia emergente da inteligência artificial está adicionando toda uma nova camada de complexidade ao problema. .

Imagens e vídeos gerados por IA relacionados ao conflito em curso estão circulando desenfreadamente nas redes sociais. Entre a inundação estão tentativas desastradas de propaganda agitativa, memes alimentados pelo ódio contra o povo judeu e esforços intencionalmente elaborados para enganar o público.

“Na medida em que as pessoas continuam a confiar em informações de fontes não verificadas, a (IA) agrava enormemente o problema existente”, diz Nathaniel Sharadin, professor da Universidade de Hong Kong e membro do Centro para Segurança de IA. Pedra rolando. “Sem dúvida, a redução do nível de produção de conteúdo muito confiável, mas falso, apenas gerará mais falsificações de imagem, áudio e vídeo de maior qualidade, e as pessoas encontrarão muito, muito mais disso. Mas não sabemos qual será o resultado disso”, acrescenta, chamando a ascensão de ferramentas de inteligência artificial virtualmente não regulamentadas de uma “experiência em nós mesmos”.

Já estamos vendo esse experimento acontecer em tempo real. Um dos casos mais amplamente divulgados de desinformação espalhada através dos meios de comunicação social gerados pela IA foi a alegação de que o Presidente Joe Biden abriria o projecto do Serviço Seletivo dos EUA às mulheres. A afirmação ressurgiu em meio ao conflito Israel-Hamas por meio de uma vídeo deepfake criado em fevereiro, que mostra o presidente Biden anunciando que irá reviver o projeto. “Lembre-se”, diz o falso Biden, “você não está enviando seus filhos e filhas para a guerra. Você os está enviando para a liberdade.”

O vídeo e outros rumores infundados que as mulheres seriam convocadas para o serviço militar, tornou-se tão viral que gerou uma onda satírica Tendência TikTok por mulheres imaginando como seria servir nas forças armadas. Milhares de vídeos, muitos deles com milhões de visualizações, foram anexados a hashtags como #WomenDraft.

Outro vídeo deepfake de IA, representando falsamente a ativista climática Greta Thunburg, que defende o uso de tecnologia militar sustentável e “mísseis biodegradáveis”, obteve milhões de impressões no Twitter depois de ser compartilhado por figuras como o teórico da conspiração de Pizzagate, Jack Posobiec. Apesar de uma pequena marca d’água sugerindo que o vídeo alterado digitalmente era uma “sátira”, muitos usuários nos comentários reagiram com credulidade ao clipe, e outros tiveram dificuldade para discernir se era real.

Hanaya Naftali, um influenciador israelense que anteriormente administrava as redes sociais como membro da equipe de comunicações do primeiro-ministro de Israel, Benjamin Netanyahu, causou confusão semelhante quando postou o que alegou serem fotos de líderes do Hamas “vivendo vidas luxuosas”. Porque as imagens tinham o tipo de desfoque às vezes produzido por modelos de IA – e o próprio Naftali tem um histórico de distorcer a verdade, como quando alegou falsamente no início deste mês que havia sido convocado para o serviço ativo da IDF – muitos o acusaram de falsificar o conteúdo.

Mas como Forbes relatado, as fotos eram autênticas, embora Naftali as tivesse filtrado por meio de uma ferramenta “upscaler” de IA na tentativa de melhorar sua resolução. As imagens resultantes, que foram visualizadas mais de 20 milhões de vezes no X (antigo Twitter), parecem ter sido criadas com um prompt de texto em um programa como DALL-E ou Stable Diffusion. E foi exactamente isso que os críticos de Naftali presumiram.

Outras ilustrações enganosas da IA ​​estão a ser usadas para angariar simpatia tanto para os habitantes de Gaza como para os israelitas, ou para sugerir a resiliência e solidariedade de qualquer um dos grupos. Imagens geradas por IA foram evocadas multidões falsas de israelitas a marchar pelas ruas, agitando bandeiras e aplaudindo nas janelas dos edifícios em grande número, presumivelmente em apoio ao seu governo. Uma imagem aparentemente compartilhada por um canal do Telegram “Wartime Media” mostra um inexistente campo de refugiados para os israelenses.

E embora muitas fotos e vídeos autênticos e comoventes tenham saído da Faixa de Gaza enquanto Israel continua a chover bombas na região, várias fotos que circulam são na verdade criações de IA que brincam com as emoções dos espectadores, colocando crianças em circunstâncias terríveis. . Algumas delas são rotuladas como arte de IA – uma ilustração de uma garota palestina segurando um ursinho de pelúcia enquanto um incêndio assola atrás dela, por exemplo. Mas as postagens que ganham força, como esta imagem de um criança vendo um apartamento explodir ao seu redor, são normalmente apresentados como reais.

Para piorar a situação, imagens enganosas são ocasionalmente amplificadas por fontes que parecem confiáveis. O jornalista tunisiano Muhammad al-Hachimi al-Hamidi compartilhou recentemente uma imagem de crianças palestinas sorridentes cobertas de cinzas, com as ruínas de um bairro atrás delas. A imagem estranha não aparece em nenhum meio de comunicação real – apenas em várias contas sociais.

A praga do conteúdo de guerra derivado da IA ​​vai além da desinformação e inclui tipos de propaganda mais diretamente odiosos. Como esquadrões de combatentes do Hamas atacaram Israel através de parapentes, os neonazistas adotaram o veículo como um símbolo que glorifica o assassinato de judeus, usando modelos de arte de IA para pintar planadores do Hamas, obtendo uma queda nas caricaturas anti-semitas. Um meme de parapente apareceu até mesmo no design de uma camiseta em uma loja de comércio eletrônico nazista.

Os apoiadores palestinos também ficaram indignados com um usuário do Instagram que postou arte conceitual para um novo e enorme parque temático na Faixa de Gaza. “Apresento a vocês a nova cidade turística e de férias no sul que será construída em breve em Israel: Nova”, escreveu ele, acrescentando um emoji da bandeira israelense. Respondendo a um comentarista que perguntou: “Quando você pode comprar um imóvel lá?” ele respondeu: “Neste momento eles estão limpando o terreno”.

Em todo o mundo, as tensões também foram alimentadas com imagens falsas que pretendem mostrar como outras nações sinalizaram o seu alinhamento com Israel ou com a Palestina. Diz-se que a cidade de Paris iluminou a Torre Eiffel com as cores da bandeira israelense em 8 de outubro – mas estas foram fotos adulteradase quando a estrutura era iluminado com as cores de Israel na noite seguinte, parecia consideravelmente diferente. Um vídeo manipulado levou a falsas alegações de que oBandeira israelense podia ser visto no exterior do Las Vegas Sphere, levando representantes do local do concerto a negar que tivessem organizado tal exibição. Outra imagem falsa mostrava torcedores do time de futebol espanhol Atlético Madrid segurando uma gigantesca bandeira palestina; verificadores de factos desmascarouobservando que a imagem provavelmente foi gerada por IA.

Entre as escassas esperanças de um cessar-fogo iminente em Gaza e a facilidade com que as pessoas podem criar e difundir arte de IA que promova a sua agenda geopolítica, este elemento do flagelo da desinformação não vai a lado nenhum. Paradoxalmente, uma maior consciência disso pode levar os utilizadores da Internet não só a captar imagens falsificadas, mas a descrer das reais, confundindo ainda mais as narrativas contestadas da guerra em curso. Até mesmo os detectores de imagem AI podem desacreditar erroneamente uma foto genuína como falsa.

“Não há nada contrário aos (termos de serviço de) muitas plataformas de distribuição sobre a publicação de imagens falsas desse tipo – mesmo aquelas sem rótulo”, diz Sharadin. “A decisão de sinalizar, remover e restringir o acesso a este conteúdo cabe a grandes provedores de plataforma, como Google, Meta, X, etc.”

Sharadin acrescenta que a capacidade das plataformas de mídia social de combater a desinformação e o abuso relacionados à IA está diretamente correlacionada com os dois fatores que mais influenciam suas políticas gerais de aplicação: “recursos” e “vontade”.

Tendendo

Embora algumas melhorias tenham sido feitas, ainda não existem muitas ferramentas eficazes para o usuário final para ajudar os indivíduos a identificar rapidamente o conteúdo gerado pela IA. Técnicas para detectar o bot, como impressão digital ou marca d’água, etc., só funcionam (e muitas vezes simplesmente não funcionam) para permitir que grandes desenvolvedores de modelos digam com credibilidade que uma parte do conteúdo não foi gerada usando seu modelo, ” Sharadin conta Pedra rolando. “Eles não permitem que os usuários finais saibam se algum conteúdo foi de fato gerado por um modelo. Mas o fato de um desenvolvedor poder dizer ‘não é meu modelo’ não ajuda em nada o público: o que queremos é uma maneira de dizer se algo é gerado por um modelo ou por um humano!”

Entretanto, as equipas de moderação das redes sociais, inundadas com conteúdos sensíveis que podem precisar de ser sinalizados ou removidos, praticamente não têm recurso para gerir o problema. Além das Notas da Comunidade do X, que permitem aos usuários rotular uma imagem como feita por IA, seria difícil encontrar qualquer plataforma que adicionasse esse contexto – e este sistema é não conseguindo acompanhar o ritmo com desinformação e propaganda conhecidas. Quando alguém tem a confirmação de uma imagem de IA, muitas vezes já é tarde demais, pois milhares de pessoas poderiam tê-la visto e republicado. O manipulador por trás disso, é claro, já está no próximo projeto.





Source link

Related Articles

Deixe um comentário