No sábado, a conta oficial de Israel no X postou uma foto do que parece ser um quarto de criança com sangue cobrindo o chão. “Este pode ser o quarto do seu filho. Sem palavras”, diz o post. Não há nenhuma sugestão de que a imagem seja falsa e publicamente não há notas na postagem. No entanto, no backend das Notas da Comunidade, visualizado pela WIRED, vários contribuidores estão envolvidos em uma troca de ideias alimentada por conspiração.
“O sangue desoxigenado tem um tom vermelho escuro, portanto, é encenado”, escreveu um colaborador. “Postagem com intenção manipuladora que tenta criar uma reação emocional no leitor, relacionando palavras e imagens de forma descontextualizada”, escreve outro.
“Não há evidências de que esta imagem seja encenada. Um artigo da Wikipédia sobre sangue não é evidência de que isso seja encenado”, escreve outro colaborador.
“Não há evidências de que esta foto seja dos ataques de 7 de outubro”, afirma outro.
Esses tipos de trocas levantam questões sobre como X aprova os contribuidores para o programa, mas isso, juntamente com exatamente quais fatores são considerados antes de cada nota ser aprovada, permanece desconhecido. Benarroch, do X, não respondeu a perguntas sobre como os colaboradores são escolhidos.
Nenhum dos aprovados para o sistema recebe qualquer treinamento, de acordo com todos os colaboradores com quem a WIRED conversou, e a única limitação inicialmente imposta aos colaboradores é a incapacidade de escrever novas notas até que tenham avaliado uma série de outras notas primeiro. Um colaborador afirma que esse processo de aprovação pode levar menos de seis horas.
Para que as notas sejam anexadas publicamente a uma postagem, elas precisam ser aprovadas como “úteis” por um certo número de colaboradores, embora não esteja claro quantos. X descreve notas “úteis” como aquelas que conseguem “contribuidores suficientes de diferentes perspectivas”. Benarroch não disse como X avalia as tendências políticas de um usuário.
“Não vejo nenhum mecanismo pelo qual eles possam saber qual perspectiva as pessoas têm”, disse Anna, uma ex-jornalista radicada no Reino Unido que X convidou para se tornar colaboradora do Community Notes, à WIRED. “Eu realmente não vejo como isso funcionaria, para ser honesto, porque surgem novos tópicos nos quais ninguém poderia ter sido avaliado.” Anna pediu para ser identificada apenas pelo seu primeiro nome por medo de reações de outros usuários do X.
Apesar de todas as notas que se tornam públicas, há muitas outras que permanecem invisíveis, seja porque são consideradas inúteis ou, na maioria dos casos revisados pela WIRED, simplesmente não obtiveram votos suficientes de outros colaboradores. Um colaborador disse à WIRED que 503 notas que ele avaliou na semana passada permaneceram no limbo porque poucas pessoas votaram nelas.
“Acho que um dos problemas centrais das Notas da Comunidade é que elas não são realmente escaláveis para a quantidade de mídia que está sendo consumida ou postada em um determinado dia”, disse o contribuidor, conhecido online como Investigator515, à WIRED. Eles pediram para serem identificados apenas pelo nome por medo de prejudicar sua reputação profissional.
Todos os colaboradores que falaram com a WIRED sentem que o Community Notes não está à altura da tarefa de policiar a plataforma em busca de desinformação, e nenhum deles acreditava que o programa iria melhorar nos próximos meses se permanecesse na sua forma atual.
“É muito mais difícil lidar com a desinformação quando não há a moderação de cima para baixo que o Twitter costumava ter, porque as contas que espalham deliberadamente desinformação seriam suspensas antes que pudessem realmente causar muitos danos”, diz o colaborador de longa data. “Portanto, confiar nas Notas da Comunidade não é bom. Não substitui a moderação de conteúdo adequada.”