Home Saúde A IA não é o nosso problema de segurança eleitoral, a desinformação é

A IA não é o nosso problema de segurança eleitoral, a desinformação é

Por Humberto Marchezini


To seu ciclo eleitoral será o primeiro exposto à inteligência artificial generativa – a tecnologia por detrás de aplicações populares como o ChatGPT, que permite que mesmo não especialistas criem texto, vídeo e áudio falsos, mas de aparência realista, perfeitamente adequados para manipulação política. Ao mesmo tempo, várias das principais empresas de redes sociais recuaram em alguns dos seus compromissos anteriores de promover a “integridade eleitoral”. As eleições de novembro são também as primeiras que registarão o impacto da enorme popularidade do TikTok, que utiliza um algoritmo de recomendação que alguns especialistas acreditam ser particularmente adequado para espalhar desinformação.

Vamos começar com a ascensão da IA ​​generativa, que permite que praticamente qualquer pessoa produza textos, imagens ou sons persuasivos com base em instruções relativamente simples em linguagem natural. Em janeiro, o Facebook divulgou uma mensagem falsa Imagem gerada por IA de Donald Trump sentado ao lado de Jeffrey Epstein no jato particular do desgraçado financista e criminoso sexual. Em Fevereiro, um consultor democrata que trabalhava para um rival de longa data admitido que ele encomendou uma chamada automática gerada por IA representando o presidente Joe Biden, que buscava desencorajar milhares de eleitores de participar das primárias de New Hampshire. O procurador-geral do estado abriu uma investigação criminal.

Os EUA não estão sozinhos neste aspecto. Em Setembro passado, um clip de áudio publicado no Facebook apenas dois dias antes da eleição nacional da Eslováquia para primeiro-ministro parecia captar o candidato do Partido Eslováquia Progressista pró-OTAN e pró-Ucrânia a discutir como fraudar os resultados. O Áudio falso criado por IA a postagem se tornou viral durante uma moratória pré-eleitoral da mídia, limitando o grau em que poderia ser desmascarada, e o candidato perdeu para um rival pró-Rússia.

Os analistas estão lutando para acompanhar as possibilidades. A estudar publicado em fevereiro na revista acadêmica Nexus do PNAS conclui que qualquer criador de publicidade política armado com ferramentas generativas de IA tem a capacidade de construir “uma ‘máquina de manipulação’ altamente escalável que visa indivíduos com base nas suas vulnerabilidades únicas, sem exigir intervenção humana”. Isto sugere que é motivo de preocupação que o tipo de agentes digitais russos que interferiram nas eleições de 2016 em apoio a Donald Trump possam usar a IA como um multiplicador de força para tentar mais uma vez inflamar o já polarizado eleitorado americano.

Mas a IA está longe de ser toda a história. A ameaça da desinformação gerada artificialmente torna-se ainda mais assustadora devido a uma tecnologia mais familiar: as redes sociais.

Apesar da confusão e da violência causadas pela tentativa de Trump de minar o resultado das eleições de 2020 e da ameaça de volatilidade semelhante este ano, grandes plataformas como o Facebook, o YouTube e, de forma mais dramática, o X recuaram em algumas das suas políticas anteriores de integridade eleitoral. de acordo com um novo relatório fomos coautores para o Centro de Empresas e Direitos Humanos na Stern School of Business da Universidade de Nova York.

Qualquer discussão sobre retrocesso começa necessariamente com X, que Elon Musk adquiriu em outubro de 2022. A concorrência do novo aplicativo Threads da Meta, bem como as controvérsias relacionadas a Musk, têm custo X usuários. Mas uma média de mais de 220 milhões de pessoas ainda visitam o site todos os meses e mantém a lealdade de muitos políticos, jornalistas e artistas influentes. Na primavera de 2023, Musk tinha despedido 6.000, ou 80%, dos funcionários de X. Em setembro de 2023, ele disse da unidade de integridade eleitoral da plataforma: “Sim, eles se foram”. A redução da moderação de conteúdo por parte do novo proprietário em nome da promoção da liberdade de expressão contribuiu para um surto de expressão racista e anti-semita que levou os anunciantes a abandonar o X em massa.

Após a farra de contratações durante a pandemia da COVID-19, outras empresas de redes sociais também executaram despedimentos em massa, com algumas delas reduzindo as suas equipas de “confiança e segurança” – as pessoas que elaboram e aplicam políticas de conteúdo.

Para as eleições de 2020, Meta construiu uma unidade de 300 pessoas dedicada à integridade eleitoral. Mas apesar do caos que eclodiu quando os apoiantes de Trump invadiram o Capitólio em 6 de janeiro de 2021, a empresa posteriormente reduzido o tamanho dessa equipe para cerca de 60 pessoas e encerrou as reuniões regulares entre os líderes do grupo e o CEO Mark Zuckerberg. Os responsáveis ​​da Meta disseram-nos que alguns antigos membros da equipa que têm novas atribuições ainda contribuem para os esforços de integridade eleitoral e que a gestão de topo é mantida informada sobre este trabalho. Mas os sinais são decididamente confusos.

A Meta, para seu crédito, ainda financia uma empresa líder do setor rede de mais de 90 organizações externas de verificação de fatos que ajudam a plataforma a tirar a ênfase e rotular conteúdo falso. Mas a empresa continua políticos isentos de ter suas declarações verificadas. Enquanto isso, o YouTube tem rescindiu uma política sob o qual já havia removido dezenas de milhares de vídeos alegando falsamente que as eleições de 2020 eram ilegítimas. Ambas as empresas argumentam que as suas novas abordagens incentivam a liberdade de expressão.

Meta também afirmou que, com o mesmo objectivo de promover um debate livre, irá afrouxar suas regras permitir que anúncios políticos no Facebook e Instagram questionem a legitimidade das eleições presidenciais de 2020. Com certeza, em agosto de 2023, o Facebook permitiu que a campanha de Trump publicasse um anúncio declarando: “Tivemos uma eleição fraudulenta em 2020”.

O TikTok, que tem agora mais de mil milhões de utilizadores mensais médios em todo o mundo e mais de 170 milhões só nos EUA, apresenta desafios novos e totalmente diferentes. Sua conexão com a controladora chinesa ByteDance levou a alegações– até agora não comprovado – que o governo autocrático de Pequim exerce influência sobre a plataforma dos EUA. A Câmara dos Deputados apenas legislação aprovada isso forçaria a ByteDance a vender o TikTok ou enfrentaria a proibição do aplicativo de vídeos curtos nos EUA.

Mas também há dúvidas sobre o algoritmo de recomendação do TikTok, que seleciona o conteúdo apresentado aos usuários. Outras plataformas importantes contam com um “gráfico social”, que escolhe o conteúdo com base no que é compartilhado pelas pessoas que elas seguem e que as seguem. O TikTok, por outro lado, seleciona vídeos curtos para sua página “Para você” com base em recomendações algorítmicas de conteúdo de fora de sua rede social também. Essa diferença pode ajudar a explicar por que o TikTok tem tanto sucesso em oferecer vídeos que os usuários consideram novos e atraentes.

Mas a distinção pode representar um perigo durante a época eleitoral, de acordo com pesquisadores com o Centro de Mídia Social e Política da NYU: “Com a IA generativa tornando os vídeos fabricados mais fáceis de produzir”, escreveram os pesquisadores em janeiro, “podemos ver desinformação política chegando aos usuários no TikTok que não alcançaria em outras plataformas sociais baseadas em gráficos .” Além do mais, os usuários do TikTok são mais jovens e estudos mostram que os jovens são mais propensos a acreditar na desinformação. TikTok nos disse que esta análise é “totalmente especulativa” e reflete “uma má compreensão de como nossa plataforma funciona”.

Ainda há tempo para que as plataformas tomem precauções pré-eleitorais. Podem impor limites à partilha desenfreada de conteúdos, que é uma forma de propagação da desinformação. Eles podem instituir “disjuntores” em certas postagens virais para dar aos moderadores de conteúdo a oportunidade de determinar se o material é malicioso. Eles podem reabastecer suas equipes de moderação de conteúdo esgotadas. E podem remover conteúdo comprovadamente falso dos feeds dos usuários, mantendo ao mesmo tempo uma cópia marcada e arquivada que não pode ser compartilhada, mas está disponível como referência para aqueles que rastreiam informações incorretas.

A indústria das redes sociais deve encarar estas e outras medidas de protecção como o custo de fazer negócios de forma responsável durante o que se prevê ser mais uma época eleitoral volátil. A inacção poderá exacerbar uma verdadeira crise para a democracia dos EUA.





Source link

Related Articles

Deixe um comentário