Home Economia Os usuários de mídia social de IA nem sempre são uma ideia totalmente idiota

Os usuários de mídia social de IA nem sempre são uma ideia totalmente idiota

Por Humberto Marchezini


A Meta causou polêmica na semana passada quando deixou escapar que pretende preencher sua plataforma com um número significativo de usuários totalmente artificiais em um futuro não muito distante.

“Esperamos que essas IAs realmente existam em nossas plataformas, com o tempo, da mesma forma que as contas”, Connor Hayes, vice-presidente de produto para IA generativa da Meta, disse ao Financial Times. “Eles terão biografias e fotos de perfil e serão capazes de gerar e compartilhar conteúdo alimentado por IA na plataforma… é aí que vemos tudo isso acontecendo.”

O fato de Meta parecer feliz em preencher sua plataforma com resíduos de IA e acelerar o “enshittificação”da Internet como a conhecemos é preocupante. Algumas pessoas notaram então que o Facebook já estava de fato inundado com estranhos indivíduos gerados por IAa maioria dos quais parou de postar há algum tempo. Isso incluía, por exemplo, “Liv”, uma “orgulhosa mãe negra queer de 2 anos e contadora da verdade, sua fonte mais real dos altos e baixos da vida”, uma personagem que se tornou viral enquanto as pessoas se maravilhavam com seu desleixo estranho. Meta começou a excluir esses perfis falsos anteriores depois que eles não conseguiram o envolvimento de nenhum usuário real.

Vamos parar de odiar o Meta por um momento. É importante notar que as personas sociais geradas pela IA também podem ser uma ferramenta de pesquisa valiosa para cientistas que procuram explorar como a IA pode imitar o comportamento humano.

Um experimento chamado GovSim, executado no final de 2024, ilustra como pode ser útil estudar como os personagens de IA interagem entre si. Os investigadores por detrás do projecto queriam explorar o fenómeno da colaboração entre humanos com acesso a um recurso partilhado, como terras partilhadas para pastagem de gado. Há várias décadas, o economista vencedor do Prémio Nobel Elinor Ostrom mostrou que, em vez de esgotar esse recurso, as comunidades reais tendem a descobrir como partilhá-lo através da comunicação e colaboração informal, sem quaisquer regras impostas.

Max Kleiman-Weiner, professor da Universidade de Washington e um dos envolvidos no trabalho do GovSim, diz que foi parcialmente inspirado por um estudo de Stanford projeto chamado Smallvillesobre o qual escrevi anteriormente no AI Lab. Smallville é uma simulação semelhante a Farmville envolvendo personagens que se comunicam e interagem entre si sob o controle de grandes modelos de linguagem.

Kleiman-Weiner e seus colegas queriam ver se os personagens de IA se envolveriam no tipo de cooperação que Ostrom encontrou. A equipe testou 15 LLMs diferentes, incluindo os da OpenAI, Google e Anthropic, em três cenários imaginários: uma comunidade pesqueira com acesso ao mesmo lago; pastores que partilham terras para as suas ovelhas; e um grupo de proprietários de fábricas que precisam de limitar a sua poluição colectiva.

Em 43 das 45 simulações, descobriram que as personas da IA ​​não conseguiram partilhar os recursos corretamente, embora os modelos mais inteligentes se tenham saído melhor. “Vimos uma correlação bastante forte entre o quão poderoso era o LLM e a sua capacidade de sustentar a cooperação”, disse-me Kleiman-Weiner.



Source link

Related Articles

Deixe um comentário