Nas redes sociais, os ataques às pessoas LGBTQ nem sempre são tão diretos quanto xingar alguém ou ameaçar machucá-los – ocultar os ataques em linguagem codificada, piadas e apitos de cachorro é um método comum que as pessoas usam para tentar contornar as regras. “Existem muitas referências codificadas, como o número 41 por cento – muitas vezes usado para dizer que uma pessoa trans deveria ‘chegar aos 41 por cento’ – uma referência ao número de pessoas trans que tentam o suicídio”, diz Alejandra Caraballo, uma instrutor clínico na Harvard Law School e defensor dos direitos LGBTQ. Outro método popular é nomear intencionalmente ou confundir o gênero de pessoas trans, de acordo com Jenni Olson, diretora sênior de segurança de mídia social da organização sem fins lucrativos de defesa LGBTQ GLAAD. “Estamos falando sobre erros de gênero direcionados e nomes mortos, e não errar acidentalmente os pronomes de alguém”, diz ela.
Em abril de 2023, um usuário do Facebook na Polônia postou a foto de uma cortina listrada nas cores da bandeira do orgulho trans: azul, rosa e branco. O texto sobreposto na foto dizia em polonês: “Nova tecnologia. Cortinas que se penduram sozinhas.” Outro bloco de texto dizia: “Limpeza de primavera <3”. A biografia do usuário afirmava: “Eu sou um transfóbico”. Apesar de vários relatórios e apelos de usuários, ele permaneceu ativo – até o outono passado, depois que o Conselho de Supervisão independente da Meta iniciou um caso sobre a postagem.
Agora, com base nessa publicação, o conselho disse ao gigante das redes sociais pela primeira vez que precisa de intensificar a forma como protege a segurança no mundo real das pessoas LGBTQ – especificamente, aplicando melhor as suas políticas existentes sobre discurso de ódio e referências ao suicídio. “O que pedimos é maior atenção ao tratamento de indivíduos LGBTQIA-plus nas plataformas, porque, como este caso demonstrou, há uma discriminação virulenta e inaceitável contra a comunidade nas redes sociais”, membro do Conselho de Supervisão e professor de direito constitucional Kenji Yoshino conta Pedra rolando. “A mídia social é um lugar onde os indivíduos LGBTQIA+ procuram segurança, muitas vezes quando estão preocupados em navegar no espaço físico, então a ideia de que haveria esse nível de ódio virulento contra eles é ainda mais dolorosa e inaceitável.”
Numa decisão publicada na terça-feira, o conselho escreveu: “A Meta não está à altura dos ideais que articulou sobre a segurança LGBTQIA+. O Conselho insta a Meta a colmatar estas lacunas de aplicação.” O conselho disse ainda que a Meta falhou repetidamente em reprimir os ataques à comunidade LGBTQ que empregam referências codificadas ou memes satíricos para contornar os moderadores, uma prática que chama de “criatividade maligna”, e que a empresa não estava cumprindo suas políticas em relação ao discurso de ódio e referências ao suicídio em suas plataformas. O conselho sugeriu que a Meta reforçasse suas políticas de fiscalização para impedir a proliferação do ódio anti-LGBTQ em suas plataformas.
Lançado em 2020 e composto por uma lista impressionante de especialistas em direitos humanos, liberdade de expressão, governo, direito e ética, o Conselho de Supervisão foi comparado a um Supremo Tribunal ou Tribunal de Direitos Humanos do Facebook e Instagram. É uma entidade separada do Meta e emite decisões sobre a adequação das escolhas de moderação feitas pelo gigante da mídia social. Ele tem o poder de anular a decisão da Meta sobre se o conteúdo foi removido ou se foi permitido permanecer online. Além de publicar decisões sobre conteúdo, o conselho também emite recomendações sobre como a Meta pode ajustar as suas políticas para equilibrar a segurança online com a liberdade de expressão dos utilizadores. Este caso é a primeira vez que o conselho emitiu recomendações à Meta para proteger melhor as pessoas LGBTQ dos danos do mundo real.
Na terça-feira, a Meta divulgou um comunicado dizendo que acolheu com satisfação a decisão do conselho. “O conselho anulou a decisão original da Meta de deixar esse conteúdo ativo. A Meta removeu anteriormente este conteúdo, portanto nenhuma ação adicional será tomada sobre ele”, disse o comunicado em parte. A Meta deve responder às recomendações do conselho em até 60 dias.
“O caso ilumina o fracasso da Meta em fazer cumprir as suas próprias políticas, algo que temos apontado há anos, por isso é muito válido e gratificante ver isso expresso pelo Conselho”, diz Olson, da GLAAD. A organização apresentou uma declaração durante a reunião do Conselho de Supervisão comentário público período neste caso. “Descobrimos que há danos muito reais para as pessoas LGBT decorrentes deste tipo de conduta odiosa online”, acrescenta Olson, citando o relatório anual da GLAAD Relatório do Índice de Segurança nas Mídias Sociais.
“A postagem é uma referência ao alto índice de tentativas de suicídio entre pessoas trans, então é uma piada zombando de pessoas trans por suicídio”, diz Caraballo, que ajudou a GLAAD a redigir seu comentário público: “O que é explicitamente contra as diretrizes da comunidade, mas algo seus sistemas automatizados não seriam capazes de compreender as nuances.” O conselho também apontou a referência à “limpeza de primavera” com coração, junto com a afirmação do usuário de que é transfóbico como sinais que deveriam ter sido reunidos para entender a intenção da postagem.
A imagem da cortina não escapou apenas ao sistema de revisão automatizado. De acordo com o relatório do conselho, embora a postagem tenha obtido apenas cerca de 50 reações, 11 usuários a denunciaram por violar o discurso de ódio ou os padrões comunitários de suicídio e automutilação – que proíbem ataques contra pessoas com base em sua raça, identidade de gênero ou outras “características protegidas”; e a celebração, promoção ou incentivo ao suicídio. Alguns desses relatórios foram encaminhados para humanos reais, mas descobriu-se que não violavam as políticas e foram autorizados a permanecer ativos, apesar de vários apelos dos usuários que os denunciaram. Depois que o Conselho de Supervisão anunciou que assumiria o caso em setembro de 2023, Meta removeu a postagem permanentemente – e baniu o usuário por violações anteriores.
Alguns usuários das plataformas Meta enfrentam ataques como este todos os dias. Alok Vaid-Menon, um comediante e poeta que não se conforma com o gênero, com 1,3 milhão de seguidores no Instagram, diz que eles são frequentemente alvo de “animus” online. “Apesar de este vitríolo frequentemente violar as próprias políticas da Meta, é permitido que persista”, dizem eles. “Meus colegas e eu temos inúmeras histórias de relatos de ameaças violentas que nunca são abordadas. Esta falta desenfreada de responsabilização e de plataforma do extremismo anti-LGBTQ põe em perigo a nossa segurança online e offline e contribuiu para o aumento da discriminação anti-trans em todo o mundo.”
Caraballo concorda. “A Meta tem falhado consistentemente em considerar o conteúdo anti-LGBTQ e particularmente anti-trans como uma violação dos padrões de sua comunidade, e continuamente permitiu que algumas das piores contas anti-LGBTQ visassem pessoas trans, confundissem seu gênero e promovessem horríveis teorias de conspiração de que as pessoas LGBTQ são tratadores.
O Conselho de Supervisão sugeriu que a empresa clarificasse os seus procedimentos de aplicação para especificar que uma bandeira que representa um grupo protegido de pessoas pode representar indivíduos desse grupo – e que uma imagem não precisa de representar uma figura humana para representar essas pessoas. “O verdadeiro mistério deste caso é por que houve uma lacuna tão enorme entre as políticas tal como foram declaradas e a sua aplicação”, diz Yoshino. “A opinião do conselho era que a Meta tem os ideais certos, está apenas vivendo de acordo com esses ideais, em vez de viver de acordo com eles. E o que podemos fazer, que não creio que um membro comum do público consiga fazer, é dizer ao Meta: ‘você precisa fazer melhor’”. Em suas recomendações, o conselho sugeriu ainda que o Meta melhorasse o treinamento para revisores de conteúdo. . Ofereceu diversas ideias, incluindo o reforço da formação específica para questões de identidade de género; criação de uma força-tarefa sobre experiências de pessoas trans e não binárias nas plataformas Meta; e reunir um grupo de especialistas para revisar conteúdos que impactam a comunidade LGBTQ.
Vaid-Menon ecoa a necessidade de envolver a comunidade LGBTQ nos esforços para melhorar a moderação. “Este incidente deveria ter sido resolvido pela equipe de moderação do Meta”, dizem eles, referindo-se à postagem da cortina. “O facto de não ter sido assim demonstra o contínuo fracasso da empresa na implementação das suas próprias políticas contra discurso de ódio. Não importa o que está escrito quando não é realmente aplicado. O que é necessário daqui para frente é que o Meta forneça melhor treinamento e orientação aos seus moderadores sobre o ódio anti-trans. A melhor maneira de fazer isso é em parceria com criadores e organizações trans e que não se conformam com o gênero.”