Um relatório divulgado pelo Facebook afirma que a incidência de discurso de ódio está diminuindo na plataforma. No entanto, ativistas argumentam que a falta de contexto, dados e transparência compromete a credibilidade do relatório.
“De acordo com Imran Ahmed, CEO do Centro de Combate ao Ódio Digital, o relatório não aborda questões simples que vêm sendo feitas há anos sobre a quantidade de discurso de ódio no Facebook e quantos usuários estão expostos a ele. No estudo ‘Falha em Proteger’, foi constatado que o Facebook não tomou medidas em relação a 89% do conteúdo anti-semita denunciado, além de continuar a abrigar grupos com dezenas de milhares de membros dedicados ao ódio antijudaico.”
De acordo com o Relatório de Execução das normas comunitárias do Facebook, o discurso de ódio em posts representa atualmente uma pequena porcentagem, cerca de cinco em cada 10.000, o que é menor do que nos primeiros três meses deste ano, quando variava entre cinco e seis. Além disso, o Facebook afirmou ter removido 90% do discurso de ódio antes que um usuário tivesse a oportunidade de denunciá-lo.
Guy Rosen, vice-presidente de integridade do Facebook, informou à imprensa que a empresa acelerou consideravelmente a remoção de discurso de ódio com o auxílio da inteligência artificial.
Atualmente, a maior parte do conteúdo que eliminamos é identificada por nossos sistemas antes mesmo de ser denunciado pelas pessoas.
Apesar de os dados aparentarem ser favoráveis, os especialistas enfrentam desafios ao tentar identificar com precisão sua origem. Dave Sifry, vice-presidente do Centro de Tecnologia e Sociedade da ADL, expressou ao Mashable sua incerteza em relação aos dados de e-mail, destacando a falta de conhecimento sobre a procedência, a métrica real e a margem de erro, uma vez que as informações não foram submetidas a revisão externa por especialistas com acesso aos dados e metodologias empregadas para sua análise.
O Facebook tem demonstrado consistentemente que divulga números e dados que não são auditados, verificados e confiáveis. Além disso, a empresa age ativamente contra pesquisadores independentes que investigam suas plataformas, como no caso em que bloqueou uma equipe da NYU de estudar anúncios políticos e desinformação COVID-19 recentemente. Enquanto o Facebook não se comprometer com a transparência, os números que divulga podem ser no máximo questionáveis e, no pior dos casos, subestimar perigosamente o problema.
A plataforma descreve o discurso de ódio como expressões violentas ou desumanizantes, declarações de inferioridade, solicitações de exclusão ou segregação com base em características protegidas ou insultos. Embora o relatório indique uma redução desse tipo de discurso, não aborda quais tipos de discurso de ódio ainda estão em ascensão.
Ahmed comentou que os dados fornecidos não abordam a natureza do conteúdo prejudicial que está presente no Facebook e Instagram, a quantidade de discurso de ódio enviado diretamente aos usuários ou a quantidade de postagens odiosas promovidas pelos algoritmos de cada plataforma, como foi evidenciado em seu estudo sobre as recomendações do Instagram.
Sifry reiterou o comentário de Ahmed, sugerindo que seria interessante saber com que frequência os sistemas de moderação foram combinados como uma revisão que envolve algoritmos e humanos; a frequência com que as postagens foram revisadas por um humano e corrigidas; a quantidade de anúncios exibidos junto a conteúdos ofensivos, entre outros aspectos.
Os ativistas de grupos consideram este relatório decepcionante, no mínimo.
“A ação do Facebook de retirar seu relatório de Execução de Normas Comunitárias como uma suposta medida de transparência demonstra mais uma vez a falha da empresa em se regular ou exercer uma supervisão eficaz na moderação de conteúdo”, comentou Jade Magnus Ogunnaike, diretor sênior de mídia, cultura e justiça econômica na Color Of Change, em comunicação por e-mail com o Mashable.
Magnus Ogunnaike notou que o discurso de ódio não se restringe apenas à plataforma online, podendo resultar em consequências violentas na vida real. Ele destacou que o Facebook não atendeu aos pedidos para excluir um grupo de ódio que incitou uma resposta violenta em Kenosha, Wisconsin, resultando em um supremacista branco armado tirando a vida de dois manifestantes.
Magnus Ogunnaike afirmou que a restrição imposta pelo Facebook ao acesso em tempo real de grupos de pesquisadores e defensores dos direitos civis aos dados reflete a intenção da empresa de evitar uma avaliação abrangente do impacto real de suas decisões sobre moderação de conteúdo em comunidades afrodescendentes.
Recentemente, um novo relatório do Center to Counter Digital Hate revelou que cinco grandes empresas de mídia social, incluindo o Facebook, não agiram para eliminar 84% das publicações anti-semitas, o que ocorreu apenas algumas semanas atrás.
O relatório destaca a inação das empresas de mídia social em lidar com conteúdos antijudaicos em suas plataformas, apontando que a falta de aplicação de suas próprias políticas permitiu que o racismo e a propaganda contra os judeus fossem disseminados livremente, tornando essas plataformas locais propícios para isso.
Em outubro, o Facebook informou que iria “proibir todo conteúdo que negue ou distorça o Holocausto”, uma alteração em sua política de combate ao discurso de ódio em relação à negação do Holocausto.
“Ahmed afirmou que grupos odiosos e violentos que se organizam no Facebook têm causado consequências reais, como ataques racistas e disseminação de misoginia. Ele argumenta que o Facebook não está agindo de forma eficaz para combater o ódio, pois o último relatório da empresa não aborda questões básicas sobre conteúdo odioso, o que indica falta de comprometimento em resolver esse problema.”
Conteúdo relacionado: Identificando se houve desrespeito à Primeira Emenda.
Assuntos abordados na rede social Facebook.
Comments