Os algoritmos que alimentam o Facebook e o Instagram, que impulsionam o que bilhões de pessoas veem nas redes sociais, estão na mira de legisladores, ativistas e reguladores há anos. Muitos pediram que os algoritmos fossem abolidos para conter a disseminação de desinformação viral e prevenir a inflamação de divisões políticas.
Mas quatro novos estudos publicados na quinta-feira – incluindo um que examinou os dados de 208 milhões de americanos que usaram o Facebook nas eleições presidenciais de 2020 – complicam essa narrativa.
Nos documentos, pesquisadores da Universidade do Texas, Universidade de Nova York, Princeton e outras instituições descobriram que a remoção de algumas funções-chave dos algoritmos das plataformas sociais não teve “efeitos mensuráveis” nas crenças políticas das pessoas. Em um experimento no algoritmo do Facebook, o conhecimento das pessoas sobre notícias políticas diminuiu quando sua capacidade de compartilhar novamente as postagens foi removida, disseram os pesquisadores.
Ao mesmo tempo, o consumo de notícias políticas no Facebook e no Instagram era altamente segregado pela ideologia, de acordo com outro estudo. Mais de 97% dos links para notícias classificadas como falsas pelos verificadores de fatos nos aplicativos durante a eleição de 2020 atraíram mais leitores conservadores do que liberais, constatou a pesquisa.
Os estudos, que foram publicados no revistas científicas e Nature, fornecem uma imagem contraditória e sutil de como os americanos têm usado – e foram afetados por – duas das maiores plataformas sociais do mundo. Os resultados conflitantes sugeriram que a compreensão do papel da mídia social na formação do discurso pode levar anos para se desenrolar.
Os artigos também se destacaram pelo grande número de usuários do Facebook e Instagram que foram incluídos e porque os pesquisadores obtiveram dados, formularam e realizaram experimentos com a colaboração da Meta, proprietária dos aplicativos. Os estudos são os primeiros de uma série de 16 artigos revisados por pares. Estudos anteriores de mídia social baseavam-se principalmente em informações disponíveis publicamente ou em um pequeno número de usuários com informações que foram “raspadas” ou baixadas da Internet.
Talia Stroud, fundadora e diretora do Center for Media Engagement da Universidade do Texas em Austin, e Joshua Tucker, professor e cofundador do Center for Social Media and Politics da New York University, que ajudou a liderar o projeto, disseram que “agora sabem o quão influente é o algoritmo em moldar as experiências das pessoas na plataforma”.
Mas Stroud disse em uma entrevista que a pesquisa mostrou “as questões sociais bastante complexas com as quais estamos lidando” e que provavelmente “não há bala de prata” para os efeitos da mídia social.
“Devemos ter cuidado com o que supomos que está acontecendo versus o que realmente está”, disse Katie Harbath, ex-diretora de políticas públicas da Meta que deixou a empresa em 2021. Ela acrescentou que os estudos derrubaram os “impactos presumidos das mídias sociais”. As preferências políticas das pessoas são influenciadas por muitos fatores, disse ela, e “a mídia social sozinha não é a culpada por todos os nossos problemas”.
Meta, que anunciado em agosto de 2020 que participaria da pesquisa, gastou US $ 20 milhões no trabalho do National Opinion Research Center da Universidade de Chicago, uma agência apartidária que ajudou na coleta de alguns dos dados. A empresa não pagou aos pesquisadores, embora alguns de seus funcionários trabalhassem com os acadêmicos. A Meta conseguiu vetar solicitações de dados que violassem a privacidade de seus usuários.
O trabalho não era um modelo para pesquisas futuras, pois exigia a participação direta da Meta, que detinha todos os dados e fornecia aos pesquisadores apenas alguns tipos, disse Michael Wagner, professor de comunicação de massa da Universidade de Wisconsin-Madison, que era um auditor independente no projeto. Os pesquisadores disseram que tiveram a palavra final sobre as conclusões dos artigos.
Nick Clegg, presidente de assuntos globais da Meta, disse os estudos mostraram que “há pouca evidência de que os principais recursos das plataformas da Meta sozinhos causem polarização ‘afetiva’ prejudicial ou tenham efeitos significativos sobre esses resultados”. Embora o debate sobre mídia social e democracia não seja resolvido pelas descobertas, ele disse, “esperamos e esperamos que isso avance a compreensão da sociedade sobre essas questões”.
Os jornais chegam em um momento tumultuado na indústria de mídia social. Neste mês, a Meta lançou o Threads, concorrente do Twitter. Elon Musk, proprietário do Twitter, mudou a plataforma, mais recentemente renomeando-a como X. Outros sites, como Discord, YouTube, Reddit e TikTok, estão prosperando, com novos participantes como Mastodon e Bluesky parecendo ganhar força.
Nos últimos anos, a Meta também tentou mudar o foco de seus aplicativos sociais para seu trabalho no mundo digital imersivo do chamado metaverso. Nos últimos 18 meses, a Meta viu mais de US$ 21 bilhões em perdas operacionais de sua divisão Reality Labs, responsável pela construção do metaverso.
Os pesquisadores há anos levantam questões sobre os algoritmos subjacentes ao Facebook e ao Instagram, que determinam o que as pessoas veem em seus feeds nos aplicativos. Em 2021, Frances Haugen, uma funcionária do Facebook que se tornou denunciante, colocou ainda mais destaque sobre eles. Ela forneceu aos legisladores e à mídia milhares de documentos da empresa e testemunhou no Congresso que o algoritmo do Facebook estava “fazendo com que os adolescentes fossem expostos a mais conteúdo de anorexia” e estava “literalmente fomentando a violência étnica” em países como a Etiópia.
Legisladores, incluindo os senadores Amy Klobuchar, democrata de Minnesota, e Cynthia Lummis, republicana de Wyoming, posteriormente apresentaram projetos de lei para estudar ou limitar os algoritmos. Nenhum passou.
Os usuários do Facebook e do Instagram foram convidados e consentiram em participar de três dos estudos publicados na quinta-feira, com suas informações de identificação obscurecidas. No quarto estudo, a empresa forneceu aos pesquisadores dados anônimos de 208 milhões de usuários do Facebook.
Um de os estudos foram intitulados “Como os algoritmos de feed de mídia social afetam as atitudes?” Nessa pesquisa, que incluiu mais de 23.000 usuários do Facebook e 21.000 usuários do Instagram, os pesquisadores substituíram os algoritmos por feeds cronológicos reversos, o que significa que as pessoas viram as postagens mais recentes primeiro, em vez de postagens amplamente adaptadas aos seus interesses.
No entanto, a “polarização” das pessoas, ou conhecimento político, não mudou, descobriram os pesquisadores. Nas pesquisas dos acadêmicos, as pessoas não relataram mudanças em seus comportamentos, como assinar mais petições online ou comparecer a mais comícios políticos, depois que seus feeds foram alterados.
De forma preocupante, um feed em ordem cronológica inversa aumentou a quantidade de conteúdo não confiável que as pessoas viram, de acordo com o estudo.
O estudo que analisou os dados de 208 milhões de usuários americanos do Facebook durante a eleição de 2020 descobriram que estavam divididos por ideologia política, com aqueles que se identificavam como conservadores vendo mais desinformação do que aqueles que se identificavam como liberais.
Os conservadores tendiam a ler muito mais links de notícias políticas que também eram lidos quase exclusivamente por outros conservadores, de acordo com a pesquisa. Dos artigos de notícias marcados como falsos por verificadores de fatos terceirizados, mais de 97% foram vistos mais por conservadores do que por liberais. As páginas e grupos do Facebook, que permitem aos usuários seguir tópicos de seu interesse, compartilharam mais links para artigos hiperpartidários do que amigos dos usuários.
As páginas e grupos do Facebook eram uma “máquina de curadoria e disseminação muito poderosa”, disse o estudo.
Ainda assim, a proporção de artigos de notícias falsas que os usuários do Facebook lêem é baixa em comparação com todos os artigos de notícias vistos, disseram os pesquisadores.
Em outro papelos pesquisadores descobriram que reduzir a quantidade de conteúdo nos feeds de 23.000 usuários do Facebook que foi postado por conexões “afins” não alterou de forma mensurável as crenças ou a polarização política daqueles que participaram.
“Essas descobertas desafiam as narrativas populares que culpam as câmaras de eco da mídia social pelos problemas da democracia americana contemporânea”, disseram os autores do estudo.
Em um quarto estudo que analisou 27.000 usuários do Facebook e Instagram, as pessoas disseram que seu conhecimento sobre notícias políticas caiu quando sua capacidade de compartilhar novamente as postagens foi retirada em um experimento. A remoção do botão de compartilhamento não mudou as crenças ou opiniões das pessoas, concluiu o jornal.
Os pesquisadores alertaram que suas descobertas foram afetadas por muitas variáveis. O momento de alguns dos experimentos pouco antes da eleição presidencial de 2020, por exemplo, pode significar que as atitudes políticas dos usuários já haviam sido consolidadas.
Algumas descobertas podem estar desatualizadas. Desde que os pesquisadores iniciaram o trabalho, a Meta deixou de exibir conteúdo de notícias de editores nos principais feeds de notícias dos usuários no Facebook e no Instagram. A empresa também aprimora e ajusta regularmente seus algoritmos para manter os usuários envolvidos.
Os pesquisadores disseram que, no entanto, esperavam que os artigos levassem a mais trabalhos no campo, com a participação de outras empresas de mídia social.
“Esperamos sinceramente que a sociedade, por meio de seus formuladores de políticas, tome medidas para que esse tipo de pesquisa possa continuar no futuro”, disse Tucker, da Universidade de Nova York. “Isso deve ser algo que a sociedade vê em seu interesse.”