“Na política americana, a desinformação infelizmente se tornou comum. Mas agora, a desinformação e a desinformação, juntamente com novas ferramentas generativas de IA, estão a criar uma ameaça sem precedentes para a qual não estamos preparados”, disse Clarke numa declaração à WIRED na segunda-feira. “Este é um problema que tanto os democratas como os republicanos deveriam ser capazes de resolver em conjunto. O Congresso precisa controlar isso antes que as coisas saiam do controle.”
Grupos de defesa como o Public Citizen solicitaram à Comissão Eleitoral Federal que emitisse novas regras que exijam a divulgação de anúncios políticos semelhantes ao que Clarke e Klobuchar propuseram, mas ainda não tomaram qualquer decisão formal. No início deste mês, o presidente da FEC, Sean Cooksey, um republicano, disse O Washington Post que a comissão planeia tomar uma decisão no início do Verão. Nessa altura, o Partido Republicano provavelmente já terá escolhido Trump como seu candidato e as eleições gerais estarão bem encaminhadas.
“Seja você um democrata ou um republicano, ninguém quer ver anúncios falsos ou ligações automáticas onde você nem consegue dizer se é seu candidato ou não”, disse Klobuchar à WIRED na segunda-feira. “Precisamos de ação federal para garantir que esta tecnologia poderosa não seja usada para enganar os eleitores e espalhar desinformação.”
As falsificações de áudio são especialmente perniciosas porque, ao contrário das fotos ou vídeos falsificados, faltam muitos dos sinais visuais que podem ajudar alguém a identificar que foram alterados, diz Hany Farid, professor da Escola de Informação da UC Berkeley. “Com chamadas automáticas, a qualidade do áudio de um telefone não é ótima e, portanto, é mais fácil enganar as pessoas com áudio falso.”
Farid também teme que as ligações, ao contrário das postagens falsas nas redes sociais, tenham maior probabilidade de atingir um grupo demográfico mais antigo que já está suscetível a golpes.
“Pode-se argumentar que muitas pessoas descobriram que este áudio era falso, mas o problema nas primárias estaduais é que mesmo alguns milhares de votos podem ter um impacto nos resultados”, diz ele. “É claro que esse tipo de interferência eleitoral poderia ser realizada sem deepfakes, mas a preocupação é que os deepfakes alimentados por IA tornem essas campanhas mais eficazes e mais fáceis de realizar.”
A regulamentação concreta ficou muito para trás, mesmo quando deepfakes como o usado pela chamada automática se tornaram mais baratos e mais fáceis de produzir, diz Sam Gregory, diretor de programas da Witness, uma organização sem fins lucrativos que ajuda as pessoas a usar a tecnologia para promover os direitos humanos. “Não parece mais um robô”, diz ele.
“O pessoal desta área tem realmente lutado para saber como marcar o áudio para mostrar que sua origem é sintética”, diz ele. “Por exemplo, você pode obrigar as pessoas a colocar um aviso no início de um trecho de áudio que diga que foi feito com IA. Se você é um mau ator ou alguém que está fazendo uma chamada automática enganosa, obviamente não faz isso.”
Mesmo que um conteúdo de áudio tenha marca d’água, isso pode ser feito de uma forma que seja evidente para uma máquina, mas não necessariamente para uma pessoa comum, diz Claire Leibowicz, chefe de integridade de mídia da Partnership on AI. E isso ainda depende da boa vontade das plataformas utilizadas para gerar o áudio deepfake. “Ainda não descobrimos o que significa ter essas ferramentas de código aberto para aqueles que querem infringir a lei”, acrescenta ela.