“Se eu quiser lançar uma campanha de desinformação, posso falhar 99% das vezes. Você falha o tempo todo, mas não importa”, diz Farid. “De vez em quando, o QAnon passa. A maioria de suas campanhas pode falhar, mas aquelas que não podem causar estragos.”
Farid diz que vimos durante o ciclo eleitoral de 2016 como os algoritmos de recomendação em plataformas como o Facebook radicalizaram as pessoas e ajudaram a espalhar desinformação e teorias da conspiração. Na preparação para a eleição de 2024 nos EUA, o algoritmo do Facebook – em si uma forma de IA – provavelmente recomendará algumas postagens geradas por IA em vez de apenas enviar conteúdo criado inteiramente por atores humanos. Chegamos ao ponto em que a IA será usada para criar desinformação que outra IA recomendará a você.
“Fomos muito bem enganados por conteúdo de qualidade muito baixa. Estamos entrando em um período em que obteremos desinformação e propaganda de maior qualidade”, diz Starbird. “Será muito mais fácil produzir conteúdo sob medida para públicos específicos do que nunca. Acho que teremos que estar cientes de que isso está aqui agora.
O que pode ser feito sobre este problema? Infelizmente, apenas tanto. Diresta diz que as pessoas precisam estar cientes dessas ameaças potenciais e ter mais cuidado com o conteúdo com o qual se envolvem. Ela diz que você deve verificar se sua fonte é um site ou perfil de mídia social que foi criado muito recentemente, por exemplo. Farid diz que as empresas de IA também precisam ser pressionadas a implementar salvaguardas para que haja menos desinformação sendo criada em geral.
O governo Biden fechou recentemente um acordo com algumas das maiores empresas de IA – fabricante do ChatGPT, OpenAI, Google, Amazon, Microsoft e Meta – que as incentiva a criar proteções específicas para suas ferramentas de IA, incluindo testes externos de ferramentas de IA e marca d’água de conteúdo. criado pela IA. Essas empresas de IA também criaram um grupo focada no desenvolvimento de padrões de segurança para ferramentas de IA, e o Congresso está debatendo como regulamentar a IA.
Apesar desses esforços, a IA está acelerando mais rápido do que está sendo controlada, e o Vale do Silício muitas vezes falha em cumprir as promessas de lançar apenas produtos testados e seguros. E mesmo que algumas empresas se comportem de forma responsável, isso não significa que todos os atores neste espaço agirão de acordo.
“Esta é a história clássica dos últimos 20 anos: libere a tecnologia, invada a privacidade de todos, cause estragos, torne-se empresas avaliadas em trilhões de dólares e depois diga: ‘Bem, sim, algumas coisas ruins aconteceram’”, diz Farid. “Estamos meio que repetindo os mesmos erros, mas agora está sobrecarregado porque estamos lançando essas coisas por meio de dispositivos móveis, mídias sociais e uma bagunça que já existe.”