Home Saúde Estados lutam para bloquear interferência eleitoral da IA

Estados lutam para bloquear interferência eleitoral da IA

Por Humberto Marchezini


NA nova Secretária de Estado do México, Maggie Toulouse Oliver, esteve numa conferência sobre segurança eleitoral no ano passado, quando teve o que descreve como um momento de “ah, merda, isto está a acontecer”. O potencial da desinformação e dos deepfakes gerados pela IA para perturbar as eleições nacionais deste ano foi o “tópico mais quente entre os administradores eleitorais” no evento, diz Toulouse Oliver, com um cenário aterrorizante a desenrolar-se após o outro nas conversas. Como principal autoridade eleitoral de seu estado, ela percebeu que o tempo estava se esgotando para estabelecer as defesas do Novo México antes da votação deste ano. “Esse foi realmente o meu alerta”, diz ela.

Graças em parte a essa epifania, o Novo México promulgou uma nova lei no mês passado, exigindo que as campanhas políticas divulgassem sempre que utilizassem IA nos seus anúncios e tornando crime a utilização de conteúdo gerado por IA para enganar intencionalmente os eleitores. O foco na “intenção maliciosa” foi fundamental, diz Toulouse Oliver. “Estamos cientes da Primeira Emenda e não queremos penalizar injustamente as pessoas”, diz ela. Estas novas medidas serão acompanhadas de uma nova campanha pública de sensibilização para os conteúdos de IA dirigidos aos eleitores, que incorporará televisão, rádio, outdoors e uma campanha digital.

Os esforços de Toulouse Oliver fazem parte de uma tendência mais ampla. Céticos de que o governo federal e as empresas de mídia social imponham barreiras de proteção significativas ao conteúdo de IA antes das eleições de novembro, as autoridades estaduais e locais agiram rapidamente para resolver o problema por conta própria. Mais de 100 projetos de lei foram recentemente apresentados ou aprovados em 39 legislaturas estaduais que contêm disposições para restringir o potencial de desinformação eleitoral gerada ou alterada pela IA, de acordo com uma análise do Voting Rights Lab, um grupo que acompanha a legislação eleitoral.

“2024 é o primeiro ano de eleições presidenciais americanas na intersecção deste aumento da desinformação e da desinformação relacionada com as eleições e do rápido crescimento do conteúdo gerado pela IA”, diz Megan Bellamy, vice-presidente de direito e política do Voting Rights Lab. As eleições deste ano, não só nos EUA, mas em todo o mundo, servirão como um teste ao impacto das novas ferramentas generativas de IA amplamente disponíveis, que tornaram mais barato, mais rápido e mais fácil do que nunca a produção em massa de conteúdos alterados. Enfrentando uma potencial avalanche de desinformação relacionada com o voto, os legisladores estaduais têm lutado com uma variedade de abordagens para proteger os eleitores ou penalizar aqueles que criam e disseminam este conteúdo, equilibrando ao mesmo tempo a Primeira Emenda e outras proteções legais. Com a regulamentação do conteúdo de IA nas suas fases iniciais, os especialistas dizem que parte da linguagem dos novos projetos de lei é juridicamente ambígua e pode ser difícil de aplicar.

Leia mais: Hackers podem usar ChatGPT para atingir as eleições de 2024

“O conteúdo gerado pela IA… direcionado estrategicamente devido ao nosso cenário eleitoral ainda pode causar danos significativos”, diz Bellamy, observando que alguns estados podem sentir o impacto mais do que outros. “O conteúdo gerado pela IA é criado para chamar a atenção dos eleitores, e isso por si só poderia levar ao caos e à confusão, mesmo que haja esforços para tentar mitigar os danos”.

Muitas destas leis, como a do Novo México, centram-se na transparência, exigindo divulgações sobre a utilização de IA em conteúdos relacionados com eleições. A legislatura da Flórida aprovou um projeto de lei semelhante em março, exigindo uma isenção de responsabilidade sobre anúncios políticos, observando que eles foram “criados no todo ou em parte com o uso de inteligência artificial generativa”. Isto se aplica a todo o conteúdo, incluindo áudio, vídeo, texto, imagens ou outros gráficos. (O projeto ainda aguarda a assinatura do governador Ron DeSantis).

Muitos projetos de lei também buscam penalizar aqueles que usam ferramentas de IA para espalhar intencionalmente conteúdo enganoso. Um projeto de lei assinado pelo governador de Wisconsin, Tony Evers, no mês passado, impõe uma multa de US$ 1.000 a qualquer grupo afiliado a uma campanha política que não adicione uma isenção de responsabilidade ao conteúdo criado ou alterado por IA, embora seja menos restritivo, pois não aborda a desinformação espalhada por grupos que não estão vinculados a campanhas. No Arizona, os legisladores têm debatido diversas abordagens, incluindo um projeto de lei que permitiria aos candidatos a cargos públicos processar os criadores de “representações digitais” criadas sem o seu consentimento.

Para muitas autoridades estaduais, a adoção generalizada do ChatGPT e de outras ferramentas populares de IA no ano passado foi um alerta para o potencial destrutivo que os programas poderiam ter nas próximas eleições. “O grande avanço com o ChatGPT realmente fez com que as pessoas falassem de uma forma que nunca haviam feito antes sobre as muitas aplicações da IA ​​e quais aspectos da nossa vida nacional são particularmente vulneráveis”, disse o secretário de Estado de Minnesota, Steve Simon. “A IA não é uma ameaça nova e independente em si, mas é um meio de amplificar as ameaças existentes de uma forma que nem teríamos pensado seriamente há cinco anos.”

Na primavera de 2023, Minnesota se tornou um dos primeiros estados a proibir o uso de conteúdo gerado por IA em materiais eleitorais. O novo estatuto proíbe a divulgação de tal conteúdo se for criado com a intenção de prejudicar um candidato no prazo de 90 dias após a eleição. Também criminaliza a disseminação de conteúdo gerado por IA, como deepfakes, sem o consentimento da pessoa retratada. Como parte dos seus esforços, Simon realizou treinamentos de segurança eleitoral com autoridades de todos os 50 condados do estado, que incluem foco no combate e na educação dos eleitores sobre o conteúdo gerado pela IA.

“Estou cautelosamente optimista quanto à nossa capacidade de neutralizar os seus efeitos”, diz Simon. A nova lei de Minnesota “está avisando não apenas às pessoas que divulgam isso, mas também ao público, que isso é algo que vale a pena observar e prestar atenção”.

Embora os termos “desinformação” e “desinformação” tenham se tornado fortemente politizados desde as eleições de 2020, com muitos legisladores conservadores se opondo reflexivamente à legislação que busca conter a disseminação de informações falsas relacionadas ao voto, as autoridades estaduais dizem que projetos de lei relacionados ao conteúdo gerado por IA foram foi amplamente recebido com apoio bipartidário. “É muito interessante que tenha havido muito pouca resistência à legislação”, diz Simon.

Apesar da enxurrada de novos projetos de lei, as autoridades estaduais dizem saber que esses esforços são uma gota no oceano. Podem ser necessários alguns cliques para criar conteúdo gerado por IA que atinja milhões de pessoas, e dias ou semanas para verificá-lo e rastreá-lo. Muitos funcionários dizem que, em conjunto com os esforços legislativos, têm gasto recursos significativos em campanhas de sensibilização pública destinadas a aumentar o cepticismo e a resiliência dos eleitores a conteúdos manipulados, e a aumentar a visibilidade de informações precisas sobre o processo de votação.

O secretário de Estado de Washington, Steve Hobbs, diz que observou de perto como o conteúdo gerado pela IA melhorou drasticamente nos últimos anos – primeiro com fascínio, depois com alarme cada vez maior. Houve o falso, mas convincente, Richard Nixon criado por pesquisadores do MIT admitindo um pouso fracassado na Lua, um falso presidente Volodymyr Zelensky se rendendo durante o início da invasão da Rússia em 2022 e, mais recentemente, um falso presidente Joe Biden dizendo aos eleitores de New Hampshire para não votar nas primárias.

“Eu estava olhando para os federais dizendo: ‘Cara, eu realmente espero que eles façam alguma coisa’”, diz Hobbs. “Mas eles não fizeram. Então fizemos isso em nível estadual”. Demorou dois anos, mas em Maio passado a legislatura estadual de Washington aprovou uma lei que exige que os anunciantes divulguem quando o material relacionado às eleições é criado ou alterado pela IA e permite que os candidatos visados ​​por conteúdo alterado pela IA processem por danos. Hobbs vê-o como um passo pequeno mas necessário, mas observa que a lei faz pouco para proteger contra a manipulação eleitoral por parte de actores estatais ou entidades estrangeiras: “Eu queria fazer mais”.

Os seus homólogos concordam que os desafios continuam a ser consideráveis. “Não vou fingir que regular isto será fácil, é uma área totalmente nova”, diz Toulouse Oliver, secretária de Estado do Novo México, acrescentando que espera que pelo menos as novas medidas ajudem a capturar os piores infratores. à medida que a temporada eleitoral avança. “Estamos em um admirável mundo novo.”



Source link

Related Articles

Deixe um comentário