Mark Zuckerberg, presidente-executivo da Meta, culpou os parceiros de verificação de fatos da empresa por alguns dos problemas de moderação do Facebook, dizendo em um vídeo que “os verificadores de factos foram demasiado tendenciosos politicamente” e “destruíram mais confiança do que criaram”.
Grupos de verificação de fatos que trabalharam com a Meta questionaram essa caracterização, dizendo que não tinham nenhum papel na decisão do que a empresa faria com o conteúdo verificado.
“Não acredito que estivéssemos fazendo nada, de qualquer forma, com preconceito”, disse Neil Brown, presidente da o Instituto Poynteruma organização sem fins lucrativos global que administra PolitiFactum dos parceiros de verificação de fatos da Meta. “Há uma montanha do que poderia ser verificado e estávamos pegando o que podíamos.”
O Sr. Brown disse que o grupo usei as ferramentas do Meta para enviar verificações de fatos e seguiu as regras do Meta que impediam o grupo de verificar os fatos de políticos. A Meta finalmente decidiu como responder às verificações de fatos, adicionando rótulos de advertência, limitando o alcance de alguns conteúdos ou até mesmo removendo as postagens.
“Não removemos e não podíamos remover conteúdo”, escreveu Lori Robertson, editora-chefe do FactCheck.org, que tem parceria com a Meta desde 2016, em uma postagem de blog. “Qualquer decisão para fazer isso foi da Meta.”
Em vez disso, a Meta está mudando para um programa chamado Community Notes, que fará com que ela dependa de seus próprios usuários para escrever verificações de fatos, em vez de organizações terceirizadas. Os pesquisadores descobriram que o programa pode ser eficaz quando combinado com outras estratégias de moderação.