Home Empreendedorismo Em grande ano eleitoral, os arquitetos da IA ​​agem contra seu uso indevido

Em grande ano eleitoral, os arquitetos da IA ​​agem contra seu uso indevido

Por Humberto Marchezini


As empresas de inteligência artificial têm estado na vanguarda do desenvolvimento da tecnologia transformadora. Agora eles também estão correndo para estabelecer limites sobre como a IA será usada em um ano repleto de eleições importantes em todo o mundo.

No mês passado, a OpenAI, criadora do chatbot ChatGPT, disse estava a trabalhar para evitar o abuso das suas ferramentas nas eleições, em parte proibindo a sua utilização para criar chatbots que fingem ser pessoas ou instituições reais. Nas últimas semanas, o Google também disse que limitaria seu chatbot de IA, Bard, de responder a certas solicitações relacionadas às eleições para evitar imprecisões.. E a Meta, dona do Facebook e do Instagram, prometeu melhor rótulo gerado por IA conteúdo em suas plataformas para que os eleitores pudessem discernir mais facilmente quais informações eram reais e quais eram falsas.

Na sexta-feira, a Anthropic, outra start-up líder em IA, juntou-se aos seus pares ao proibir a aplicação da sua tecnologia em campanhas políticas ou lobby. Em postagem no blog, a empresa, que fabrica um chatbot chamado Claude, disse que alertaria ou suspenderia qualquer usuário que violasse suas regras. Acrescentou que estava usando ferramentas treinadas para detectar e bloquear automaticamente informações erradas e influenciar operações.

“A história da implantação de IA também foi cheia de surpresas e efeitos inesperados”, disse a empresa. “Esperamos que 2024 veja usos surpreendentes de sistemas de IA – usos que não foram previstos por seus próprios desenvolvedores.”

Os esforços fazem parte de um esforço das empresas de IA para controlar uma tecnologia que popularizaram à medida que milhares de milhões de pessoas vão às urnas. Pelo menos 83 eleições em todo o mundo, a maior concentração pelo menos nos próximos 24 anos, estão previstas para este ano, segundo a Anchor Change, uma empresa de consultoria. Nas últimas semanas, as pessoas em Taiwan, no Paquistão e na Indonésia votaram, com a Índia, a maior democracia do mundo, a realizar eleições gerais na Primavera.

A eficácia das restrições às ferramentas de IA não é clara, especialmente à medida que as empresas tecnológicas avançam com tecnologias cada vez mais sofisticadas. Na quinta-feira, a OpenAI revelou o Sora, uma tecnologia que pode gerar vídeos realistas instantaneamente. Tais ferramentas poderiam ser utilizadas para produzir texto, sons e imagens em campanhas políticas, confundindo factos e ficção e levantando questões sobre se os eleitores conseguem dizer que conteúdo é real.

O conteúdo gerado pela IA já apareceu nas campanhas políticas dos EUA, provocando resistência regulatória e legal. Alguns legisladores estaduais estão elaborando projetos de lei para regular o conteúdo político gerado pela IA.

No mês passado, os residentes de New Hampshire receberam mensagens robocall dissuadindo-os de votar nas primárias estaduais em uma voz que provavelmente foi gerada artificialmente para soar como a do presidente Biden. A Comissão Federal de Comunicações proibiu na semana passada tais ligações.

“Maus atores estão usando vozes geradas por IA em ligações automáticas não solicitadas para extorquir familiares vulneráveis, imitar celebridades e desinformar os eleitores”, disse Jessica Rosenworcel, presidente da FCC, na época.

As ferramentas de IA também criaram representações enganosas ou enganosas de políticos e tópicos políticos na Argentina, Austrália, Grã-Bretanha e Canadá. Na semana passada, o ex-primeiro-ministro Imran Khan, cujo partido conquistou o maior número de assentos nas eleições do Paquistão, usou uma voz de IA para declarar vitória enquanto estava na prisão.

Num dos ciclos eleitorais mais importantes de que há memória, a desinformação e os enganos que a IA pode criar podem ser devastadores para a democracia, afirmam os especialistas.

“Estamos atrás da bola oito aqui”, disse Oren Etzioni, professor da Universidade de Washington especializado em inteligência artificial e fundador da True Media, uma organização sem fins lucrativos que trabalha para identificar desinformação online em campanhas políticas. “Precisamos de ferramentas para responder a isso em tempo real.”

A Anthropic disse em seu anúncio na sexta-feira que estava planejando testes para identificar como seu chatbot Claude poderia produzir conteúdo tendencioso ou enganoso relacionado a candidatos políticos, questões políticas e administração eleitoral. Estes testes de “equipa vermelha”, que são frequentemente utilizados para romper as salvaguardas de uma tecnologia para melhor identificar as suas vulnerabilidades, também explorarão como a IA responde a perguntas prejudiciais, tais como avisos que solicitam tácticas de supressão de eleitores.

Nas próximas semanas, a Anthropic também lançará um teste que visa redirecionar os usuários dos EUA que tenham dúvidas relacionadas à votação para fontes de informação confiáveis, como o TurboVote da Democracy Works, um grupo apartidário sem fins lucrativos. A empresa disse que seu modelo de IA não foi treinado com frequência suficiente para fornecer fatos em tempo real de maneira confiável sobre eleições específicas.

Da mesma forma, a OpenAI disse no mês passado que planejava direcionar às pessoas informações de votação por meio do ChatGPT, bem como rotular imagens geradas por IA.

“Como qualquer nova tecnologia, essas ferramentas trazem benefícios e desafios”, disse OpenAI em um blog. “Eles também não têm precedentes e continuaremos evoluindo nossa abordagem à medida que aprendermos mais sobre como nossas ferramentas são usadas.”

(O New York Times processou a OpenAI e sua parceira, a Microsoft, em dezembro, alegando violação de direitos autorais de conteúdo de notícias relacionado a sistemas de IA.)

A Synthesia, uma start-up com um gerador de vídeo de IA que tem sido associada a campanhas de desinformação, também proíbe a utilização de tecnologia para “conteúdo semelhante a notícias”, incluindo material falso, polarizador, divisivo ou enganoso. A empresa melhorou os sistemas que utiliza para detectar o uso indevido de sua tecnologia, disse Alexandru Voica, chefe de assuntos corporativos e políticas da Synthesia.

A Stability AI, uma start-up com uma ferramenta geradora de imagens, disse que proibiu o uso de sua tecnologia para fins ilegais ou antiéticos, trabalhou para bloquear a geração de imagens inseguras e aplicou uma marca d’água imperceptível em todas as imagens.

As maiores empresas de tecnologia também participaram. Na semana passada, a Meta disse que estava colaborando com outras empresas em padrões tecnológicos para ajudar a reconhecer quando o conteúdo foi gerado com inteligência artificial. Antes das eleições parlamentares da União Europeia em junho, TikTok disse em uma postagem de blog na quarta-feira que proibiria conteúdo manipulado potencialmente enganoso e exigiria que os usuários rotulassem criações realistas de IA.

Google disse em dezembro que também exigiria que os criadores de vídeos no YouTube e todos os anunciantes eleitorais divulgassem conteúdo alterado ou gerado digitalmente. A empresa disse que estava se preparando para as eleições de 2024, restringindo suas ferramentas de IA, como o Bard, de retornar respostas para certas perguntas relacionadas às eleições.

“Como qualquer tecnologia emergente, a IA apresenta novas oportunidades e também desafios”, disse o Google. A IA pode ajudar a combater o abuso, acrescentou a empresa, “mas também estamos nos preparando para saber como ela pode mudar o cenário da desinformação”.





Source link

Related Articles

Deixe um comentário