A Meta gostaria de apresentar seu próximo verificador de fatos – aquele que detectará falsidades, escreverá correções convincentes e alertará outras pessoas sobre conteúdo enganoso.
É você.
Mark Zuckerberg, presidente-executivo da Meta, anunciou na terça-feira que estava encerrando muitos dos esforços de moderação da empresa, como verificação de fatos de terceiros e restrições de conteúdo. Em vez disso, disse ele, a empresa transferirá as tarefas de verificação de fatos para os usuários comuns sob um modelo chamado Community Notes, que foi popularizado por X e permite que os usuários deixem uma verificação de fatos ou correção em uma postagem nas redes sociais.
O anúncio sinaliza o fim de uma era de moderação de conteúdo e a adoção de diretrizes mais flexíveis que até mesmo Zuckerberg reconheceu que aumentariam a quantidade de conteúdo falso e enganoso. na maior rede social do mundo.
“Acho que será um fracasso espetacular”, disse Alex Mahadevan, diretor de um programa de alfabetização midiática do Instituto Poynter chamado MediaWise, que estudou Notas da Comunidade no X. “A plataforma agora não tem responsabilidade por nada que seja dito. . Eles podem transferir a responsabilidade para os próprios usuários.”
Tal viragem teria sido inimaginável após as eleições presidenciais de 2016 ou mesmo de 2020, quando as empresas de redes sociais se viam como guerreiros relutantes na linha da frente de uma guerra de desinformação. As falsidades generalizadas durante as eleições presidenciais de 2016 desencadearam reações públicas e debate interno nas empresas de redes sociais sobre o seu papel na divulgação das chamadas “notícias falsas”.
As empresas responderam investindo milhões em esforços de moderação de conteúdo, pagando verificadores de factos a terceiros, criando algoritmos complexos para restringir conteúdo tóxico e lançando uma enxurrada de rótulos de advertência para retardar a propagação de falsidades – medidas consideradas necessárias para restaurar a confiança do público.
Os esforços funcionaram, até certo ponto: os rótulos dos verificadores de factos foram eficazes na redução da crença em falsidades, descobriram os investigadores, embora tenham sido menos eficazes nos americanos conservadores. Mas os esforços também tornaram as plataformas – e Zuckerberg em particular – alvos políticos de Trump e dos seus aliados, que diziam que a moderação de conteúdo era nada menos que censura.
Agora, o ambiente político mudou. Com Trump pronto para assumir o controle da Casa Branca e dos órgãos reguladores que supervisionam o Meta, Zuckerberg se esforçou para reparar seu relacionamento com Trump, jantando em Mar-a-Lago, acrescentando um aliado de Trump ao conselho de administração do Meta. e doando US$ 1 milhão para o fundo de posse de Trump.
“As recentes eleições também parecem um ponto de viragem cultural para mais uma vez dar prioridade ao discurso”, disse Zuckerberg num vídeo anunciando as mudanças de moderação.
A aposta de Zuckerberg no uso de Community Notes para substituir verificadores de fatos profissionais foi inspirada por um experimento semelhante no X que permitiu a Elon Musk, seu proprietário bilionário, terceirizar a verificação de fatos da empresa para os usuários.
X agora pede aos usuários comuns que identifiquem falsidades e escrevam correções ou adicionem informações extras às postagens nas redes sociais. Os detalhes exatos do programa Meta não são conhecidos, mas no X, as notas são inicialmente visíveis apenas para usuários que se registram no programa Community Notes. Assim que receberem votos suficientes que os considerem valiosos, eles serão anexados à postagem na mídia social para que todos possam ver.
“O sonho de uma plataforma de mídia social é a moderação completamente automatizada pela qual eles, primeiro, não precisam assumir responsabilidade e, segundo, não precisam pagar ninguém”, disse Mahadevan, diretor da MediaWise. “Portanto, o Community Notes é o sonho absoluto dessas pessoas – elas basicamente tentaram projetar um sistema que automatizasse a verificação de fatos.”
Musk, outro aliado de Trump, foi um dos primeiros defensores das Notas Comunitárias. Ele rapidamente elevou o programa depois de demitir a maior parte da equipe de confiança e segurança da empresa.
Estudos mostraram que o Community Notes funciona para dissipar algumas falsidades virais. A abordagem funciona melhor para tópicos sobre os quais há amplo consenso, descobriram os pesquisadores, como a desinformação sobre as vacinas contra a Covid.
Nesse caso, as notas “emergiram como uma solução inovadora, fornecendo informações de saúde precisas e credíveis”, disse John W. Ayers, vice-chefe de inovação na divisão de doenças infecciosas e saúde pública global da Universidade da Califórnia, San Diego, Faculdade de Medicina, que escreveu um relatório em abril sobre o tema.
Mas os utilizadores com pontos de vista políticos diferentes têm de concordar com uma verificação dos factos antes de estes serem publicamente anexados a uma publicação, o que significa que publicações enganosas sobre assuntos politicamente divisivos muitas vezes não são verificadas. A MediaWise descobriu que menos de 10% das notas da comunidade elaboradas pelos usuários acabam sendo publicadas em postagens ofensivas. Os números são ainda mais baixos para temas sensíveis como a imigração e o aborto.
Os pesquisadores descobriram que a maioria das postagens no X recebe a maior parte do tráfego nas primeiras horas, mas pode levar dias para que uma Nota da Comunidade seja aprovada para que todos possam vê-la.
Desde sua estreia em 2021, o programa despertou o interesse de outras plataformas. YouTube anunciou no ano passado que estava iniciando um projeto piloto que permitia aos usuários enviar notas para aparecerem abaixo de vídeos enganosos. A utilidade dessas verificações de fatos ainda é avaliada por avaliadores terceirizados, disse o YouTube em uma postagem no blog.
As ferramentas existentes de moderação de conteúdo do Meta pareciam sobrecarregadas pelo dilúvio de falsidades e conteúdos enganosos, mas as intervenções foram vistas pelos pesquisadores como bastante eficazes. Um estudo publicado no ano passado na revista Nature Human Behavior mostraram que rótulos de advertência, como aqueles usados pelo Facebook para alertar os usuários sobre informações falsas, reduziram a crença em falsidades em 28% e reduziram a frequência com que o conteúdo foi compartilhado em 25%. Os investigadores descobriram que os utilizadores de direita eram muito mais desconfiados das verificações de factos, mas que as intervenções ainda eram eficazes na redução da sua crença em conteúdos falsos.
“Todas as pesquisas mostram que quanto mais redutores de velocidade, essencialmente, quanto mais atrito houver em uma plataforma, menor será a disseminação de informações de baixa qualidade”, disse Claire Wardle, professora associada de comunicação na Universidade Cornell.
Os pesquisadores acreditam que a verificação de fatos da comunidade é eficaz quando combinada com esforços internos de moderação de conteúdo. Mas a abordagem não intervencionista da Meta pode ser arriscada.
“A abordagem baseada na comunidade é uma peça do quebra-cabeça”, disse Valerie Wirtschafter, bolsista da Brookings Institution que estudou Notas Comunitárias. “Mas não pode ser a única coisa e certamente não pode ser simplesmente implementada como uma solução completa e não personalizada.”