Foi o equivalente em ciências sociais do fim de semana de Barbenheimer: quatro blockbuster acadêmico papéis, publicado em duas das principais revistas do mundo no mesmo dia. Escrito por pesquisadores de elite de universidades dos Estados Unidos, os artigos em Natureza e Ciência cada um examinou diferentes aspectos de uma das questões de política pública mais atraentes de nosso tempo: como a mídia social está moldando nosso conhecimento, crenças e comportamentos.
Baseando-se em dados coletados de centenas de milhões de usuários do Facebook ao longo de vários meses, os pesquisadores descobriram que, sem surpresa, a plataforma e seus algoritmos exerciam uma influência considerável sobre quais informações as pessoas viam, quanto tempo passavam rolando e tocando online e seu conhecimento sobre Noticias & Eventos. O Facebook também tendia a mostrar aos usuários informações de fontes com as quais eles já concordavam, criando “bolhas de filtro” políticas que reforçavam as visões de mundo das pessoas e era um vetor de desinformação, principalmente para usuários politicamente conservadores.
Mas a maior novidade veio do que os estudos não descobrir: apesar da influência do Facebook no espalhar de informações, não havia evidências de que a plataforma tivesse um efeito significativo nas crenças subjacentes das pessoas ou nos níveis de polarização política.
Essas são apenas as descobertas mais recentes que sugerem que a relação entre as informações que consumimos e as crenças que mantemos é muito mais complexa do que comumente se entende.
‘Bolhas de filtro’ e democracia
Às vezes, os efeitos perigosos das mídias sociais são claros. Em 2018, quando fui ao Sri Lanka para relatar os pogroms antimuçulmanos, descobri que o feed de notícias do Facebook havia sido um vetor para os rumores que serviram de pretexto para a violência vigilante e que os grupos de WhatsApp se tornaram plataformas para organizar e realizar o ataques reais. No Brasil, em janeiro passado, apoiadores do ex-presidente Jair Bolsonaro usaram a mídia social para espalhar falsas alegações de que a fraude lhe custou a eleição e, em seguida, recorreram a grupos de WhatsApp e Telegram para planejar um ataque de multidão a prédios federais na capital, Brasília. Foi um manual semelhante ao usado nos Estados Unidos em 6 de janeiro de 2021, quando apoiadores de Donald Trump invadiram o Capitólio.
Mas, além de eventos discretos como esses, também houve preocupações de que as mídias sociais, e particularmente os algoritmos usados para sugerir conteúdo aos usuários, possam estar contribuindo para a disseminação mais geral de desinformação e polarização.
A teoria, grosso modo, é mais ou menos assim: ao contrário do passado, quando a maioria das pessoas obtinha suas informações das mesmas poucas fontes convencionais, a mídia social agora permite que as pessoas filtrem as notícias de acordo com seus próprios interesses e preconceitos. Como resultado, eles geralmente compartilham e veem histórias de pessoas de seu próprio lado do espectro político. Essa “bolha de filtro” de informações supostamente expõe os usuários a versões cada vez mais distorcidas da realidade, minando o consenso e reduzindo sua compreensão das pessoas do lado oposto.
A teoria ganhou atenção popular depois que Trump foi eleito em 2016. “A ‘bolha do filtro’ explica por que Trump venceu e você não previu isso”, anunciou uma revista da New York Magazine. artigo alguns dias depois da eleição. “Sua câmara de eco está destruindo a democracia” Revista Wired reivindicou algumas semanas depois.
Mudar informações não muda mentes
Mas sem testes rigorosos, tem sido difícil descobrir se o efeito bolha do filtro era real. Os quatro novos estudos são os primeiros de uma série de 16 artigos revisados por pares que surgiram de uma colaboração entre a Meta, empresa proprietária do Facebook e do Instagram, e um grupo de pesquisadores de universidades como Princeton, Dartmouth, Universidade da Pensilvânia, Stanford e outros.
Meta deu acesso sem precedentes aos pesquisadores durante o período de três meses antes da eleição de 2020 nos EUA, permitindo-lhes analisar dados de mais de 200 milhões de usuários e também realizar experimentos controlados randomizados em grandes grupos de usuários que concordaram em participar. Vale a pena notar que o gigante da mídia social gastou US$ 20 milhões em trabalhos do NORC na Universidade de Chicago (anteriormente National Opinion Research Center), uma organização de pesquisa apartidária que ajudou a coletar alguns dos dados. E embora a Meta não pagasse os pesquisadores, alguns de seus funcionários trabalharam com os acadêmicos e alguns dos autores receberam financiamento da empresa no passado. Mas os pesquisadores tomaram medidas para proteger a independência de seu trabalho, incluindo o pré-registro de suas perguntas de pesquisa com antecedência, e a Meta só conseguiu vetar solicitações que violassem a privacidade dos usuários.
Os estudos, em conjunto, sugerem que há evidências para a primeira parte da teoria da “bolha do filtro”: os usuários do Facebook não tendem a ver postagens de fontes afinse havia altos graus de “segregação ideológica” com pouca sobreposição entre o que os usuários liberais e conservadores viram, clicaram e compartilharam. Maioria desinformação estava concentrado em um canto conservador da rede social, tornando os usuários de direita muito mais propensos a encontrar mentiras políticas na plataforma.
“Acho que é uma questão de oferta e demanda”, disse Sandra González-Bailón, principal autora do artigo que estudou a desinformação. Os usuários do Facebook são conservadores, tornando o mercado potencial de desinformação partidária maior à direita. E a curadoria online, amplificada por algoritmos que priorizam o conteúdo mais emotivo, pode reforçar esses efeitos de mercado, acrescentou.
Quando se tratava da segunda parte da teoria – que esse conteúdo filtrado moldaria as crenças e visões de mundo das pessoas, muitas vezes de maneira prejudicial – os jornais encontraram pouco apoio. Um experimentar conteúdo deliberadamente reduzido de fontes afins, para que os usuários vissem informações mais variadas, mas não encontrassem efeito na polarização ou nas atitudes políticas. Removendo o influência do algoritmo nos feeds das pessoas, para que elas apenas vissem o conteúdo em ordem cronológica, “não alterou significativamente os níveis de polarização de questões, polarização afetiva, conhecimento político ou outras atitudes importantes”, descobriram os pesquisadores. A remoção de conteúdo também não compartilhado por outros usuários.
Os algoritmos estão na mira dos legisladores há anos, mas muitos dos argumentos para regulá-los presumem que eles tenham influência no mundo real. Esta pesquisa complica essa narrativa.
Mas também tem implicações muito mais amplas do que a própria mídia social, atingindo algumas das principais suposições sobre como formamos nossas crenças e visões políticas. Brendan Nyhan, que pesquisa percepções políticas errôneas e foi o principal autor de um dos estudos, disse que os resultados foram impressionantes porque sugeriram uma ligação ainda mais fraca entre informações e crenças do que havia sido mostrado em pesquisas anteriores. “Na área em que faço minha pesquisa, a descoberta que surgiu à medida que o campo se desenvolveu é que informações factuais muitas vezes mudam as visões factuais das pessoas, mas essas mudanças nem sempre se traduzem em atitudes diferentes,” ele disse. Mas os novos estudos sugeriram uma relação ainda mais fraca. “Estamos vendo efeitos nulos nas visões e atitudes factuais.”
Como jornalista, confesso um certo investimento pessoal na ideia de que apresentar informações às pessoas afetará suas crenças e decisões. Mas se isso não for verdade, então os efeitos potenciais iriam além da minha própria profissão. Se novas informações não mudarem crenças ou apoio político, por exemplo, isso afetará não apenas a visão de mundo dos eleitores, mas também sua capacidade de responsabilizar os líderes democráticos.
Obrigado por ser um assinante
Leia as edições anteriores do boletim aqui.
Se você está gostando do que está lendo, considere recomendá-lo a outras pessoas. Eles podem se inscrever aqui. Navegue por todos os nossos boletins informativos exclusivos para assinantes aqui.
Eu adoraria receber seus comentários sobre este boletim informativo. Envie suas ideias e sugestões por e-mail para interpreter@nytimes.com. Você também pode me seguir no Twitter.