Home Entretenimento O Twitter atualizou seu chatbot de IA. As imagens são um incêndio no lixo

O Twitter atualizou seu chatbot de IA. As imagens são um incêndio no lixo

Por Humberto Marchezini


Só faz tempo alguns dias desde que o X (antigo Twitter), o site de mídia social de propriedade de Elon Musk, lançou sua mais nova iteração do seu chatbot de inteligência artificial Grok. Lançada em 13 de agosto, a nova atualização, Grok-2, permite que os usuários gerem imagens de IA com prompts de texto simples. O problema? O modelo não tem nenhuma das proteções de segurança médias que outros modelos populares de IA têm. Simplificando, as pessoas podem fazer quase tudo com o Grok. E elas estão fazendo.

Grok é um modelo de inteligência artificial generativa — um sistema que aprende por conta própria e cria novos conteúdos com base no que aprendeu. Nos últimos dois anos, os avanços no processamento de dados e na ciência da computação tornaram os modelos de IA incrivelmente populares no espaço da tecnologia, com startups e empresas estabelecidas como a Meta desenvolvendo suas próprias versões da ferramenta. Mas para o X, esse avanço foi marcado pela preocupação de usuários e profissionais de que o bot de IA está levando as coisas longe demais. Nos dias desde a atualização do Grok, o X foi preenchido com conteúdo selvagem de IA gerado pelo usuário, alguns dos conteúdos mais difundidos envolvendo figuras políticas.

Houve imagens de IA do ex-presidente Donald Trump acariciando uma vice-presidente grávida Kamala Harris, Musk com Mickey Mouse segurando um AK-47 cercado por poças de sangue e inúmeros exemplos de conteúdo sugestivo e violento. No entanto, quando preocupado usuários do X apontaram as habilidades aparentemente descontroladas do bot de IA, Musk adotou uma abordagem blasé, chamando isso a “IA mais divertida do mundo”. Agora, quando os usuários apontam conteúdo político, Musk simplesmente comenta, com emojis “legais” ou risonhos. Em um caso, quando um usuário X postou uma imagem de IA de Musk aparentemente grávida do filho de Trump, o dono do X respondeu com mais emojis risonhos e escreveu “Bem, se eu vivo pela espada, eu deveria morrer pela espada”.

À medida que os pesquisadores continuam a desenvolver o campo da IA ​​generativa, há conversas contínuas e cada vez mais preocupadas sobre as implicações éticas disso. Durante esta temporada de eleições presidenciais dos EUA, especialistas também expressaram preocupações sobre como a IA poderia influenciar ou ajudar a espalhar mentiras problemáticas aos eleitores. Musk especificamente foi duramente criticado por compartilhar conteúdo manipulado. Em julho, a proprietária do X postou um clipe digitalmente alterado da vice-presidente Harris, que usou sua voz para alegar que Harris chamou o presidente Joe Biden de senil e se referiu a Harris como “a contratação de diversidade definitiva”. Musk não adicionou um aviso de que a postagem foi manipulada, compartilhando-a com seus 194 milhões de seguidores do X — uma postagem que ia contra as diretrizes declaradas do X que proíbem “mídia sintética, manipulada ou fora do contexto que pode enganar ou confundir as pessoas e causar danos”.

Embora tenha havido problemas com outros modelos generativos no passado, alguns dos mais populares, como o ChatGPT, desenvolveram regras muito mais rígidas sobre quais imagens eles permitirão que os usuários gerem. A OpenAI, a empresa por trás do modelo, não permite que as pessoas gerem imagens mencionando figuras políticas ou celebridades pelo nome. As diretrizes também proibir pessoas de usar a IA para desenvolver ou usar armas. No entanto, usuários no X alegaram que o Grok produzirá imagens que promovem violência e racismo, como bandeiras do ISIS, políticos usando insígnias nazistas e até mesmo cadáveres.

Nikola Banovic, professor associado de ciência da computação na Universidade de Michigan, Ann Arbor, conta Pedra Rolante que o problema do Grok não é apenas a falta de proteções do modelo, mas sua ampla acessibilidade como um bot que pode ser usado com pouco ou nenhum treinamento ou tutorial.

“Não há dúvida de que há um perigo de que esses tipos de ferramentas agora estejam acessíveis a um público mais amplo. Elas podem ser usadas efetivamente para desinformação e informação enganosa”, ele diz. “O que torna isso particularmente desafiador é que (os modelos) estão se aproximando da capacidade de gerar algo realmente realista, talvez até plausível, mas que o público em geral pode não ter o tipo de alfabetização em mídia ou IA para detectar como desinformação. Agora estamos nos aproximando do estágio em que temos que olhar mais de perto algumas dessas imagens e tentar entender melhor o contexto para que nós, como público, possamos detectar quando uma imagem não é real.”

Tendências

Os representantes de X não responderam a Pedra Rolantesolicitação de comentário da. O Grok-2 e sua versão mini estão atualmente em beta no X e estão disponíveis apenas para participantes que pagam pelo X premium, mas a empresa divulgou planos para continuar desenvolvendo os modelos ainda mais.

“Esta continua sendo uma discussão mais ampla sobre quais são algumas das normas ou éticas de criar (e implementar) esses tipos de modelos”, acrescenta Banovic. “Mas raramente ouço ‘Qual é a responsabilidade do proprietário da plataforma de IA que agora pega esse tipo de tecnologia e a implementa para o público em geral?’ E acho que isso é algo que precisamos discutir também.”





Source link

Related Articles

Deixe um comentário