Mittelsteadt acrescenta que Trump poderia punir as empresas de diversas maneiras. Ele cita, por exemplo, a forma como o governo Trump cancelou um importante contrato federal com a Amazon Web Services, uma decisão provavelmente influenciada pela visão do ex-presidente sobre o Washington Post e seu proprietário, Jeff Bezos.
Não seria difícil para os decisores políticos apontarem para evidências de preconceito político nos modelos de IA, mesmo que isso tenha efeitos nos dois sentidos.
UM Estudo de 2023 por pesquisadores da Universidade de Washington, da Universidade Carnegie Mellon e da Universidade Xi’an Jiaotong encontraram uma série de tendências políticas em diferentes modelos de linguagem de grande porte. Também mostrou como este preconceito pode afetar o desempenho dos sistemas de detecção de discurso de ódio ou de desinformação.
Outro estudoconduzido por pesquisadores da Universidade de Ciência e Tecnologia de Hong Kong, encontrou preconceitos em vários modelos de IA de código aberto em questões polarizadoras como imigração, direitos reprodutivos e mudanças climáticas. Yejin Bang, um candidato a doutoramento envolvido no trabalho, diz que a maioria dos modelos tende a ser liberais e centrados nos EUA, mas que os mesmos modelos podem expressar uma variedade de preconceitos liberais ou conservadores, dependendo do tópico.
Os modelos de IA capturam preconceitos políticos porque são treinados em faixas de dados da Internet que inevitavelmente incluem todos os tipos de perspectivas. A maioria dos usuários pode não estar ciente de qualquer preconceito nas ferramentas que usam porque os modelos incorporam proteções que os impedem de gerar determinados conteúdos prejudiciais ou tendenciosos. No entanto, estes preconceitos podem vazar subtilmente, e a formação adicional que os modelos recebem para restringir a sua produção pode introduzir ainda mais partidarismo. “Os desenvolvedores podem garantir que os modelos sejam expostos a múltiplas perspectivas sobre tópicos controversos, permitindo-lhes responder com um ponto de vista equilibrado”, diz Bang.
O problema pode piorar à medida que os sistemas de IA se tornam mais difundidos, diz Ashique Khuda Bukhshum cientista da computação do Rochester Institute of Technology que desenvolveu uma ferramenta chamada Toxicity Rabbit Hole Framework, que revela os diferentes preconceitos sociais de grandes modelos de linguagem. “Tememos que um ciclo vicioso esteja prestes a começar, à medida que as novas gerações de LLMs serão cada vez mais treinadas em dados contaminados por conteúdo gerado por IA”, diz ele.
“Estou convencido de que esse preconceito dentro dos LLMs já é um problema e provavelmente será ainda maior no futuro”, diz Luca Rettenberger, pesquisador de pós-doutorado no Instituto de Tecnologia de Karlsruhe que conduziu uma análise dos LLMs para preconceitos relacionados. à política alemã.
Rettenberger sugere que os grupos políticos também podem procurar influenciar os LLMs, a fim de promover os seus próprios pontos de vista acima dos dos outros. “Se alguém for muito ambicioso e tiver intenções maliciosas, poderá ser possível manipular os LLMs em determinadas direções”, diz ele. “Vejo a manipulação de dados de treinamento como um perigo real.”
Já houve alguns esforços para mudar o equilíbrio de preconceitos nos modelos de IA. Em março passado, um programador desenvolveu um chatbot mais direitista em um esforço para destacar os preconceitos sutis que viu em ferramentas como o ChatGPT. O próprio Musk prometeu tornar o Grok, o chatbot de IA construído pela xAI, “buscador da verdade ao máximo” e menos tendencioso do que outras ferramentas de IA, embora na prática também se proteja quando se trata de questões políticas complicadas. (Apoiador convicto de Trump e falcão da imigração, a visão do próprio Musk de “menos tendencioso” também pode traduzir-se em resultados mais direitistas.)
É pouco provável que as eleições da próxima semana nos Estados Unidos curem a discórdia entre Democratas e Republicanos, mas se Trump vencer, os rumores sobre a IA anti-despertar poderão ficar muito mais altos.
Musk ofereceu uma visão apocalíptica sobre o assunto no evento desta semana, referindo-se a um incidente em que Gemini, do Google, disse que a guerra nuclear seria preferível a confundir o gênero de Caitlyn Jenner. “Se você tiver uma IA programada para coisas assim, ela poderia concluir que a melhor maneira de garantir que ninguém tenha um gênero incorreto é aniquilar todos os humanos, tornando assim zero a probabilidade de um futuro erro de gênero”, disse ele.