Em seu relatório, o conselho pede uma “revisão significativa” do programa de verificação dupla chamado “verificação cruzada”, para torná-lo mais transparente, receptivo e justo
O conselho de supervisão da Meta criticou nesta terça-feira (6) as plataformas da gigante das redes sociais por dar um tratamento preferencial a conteúdos problemáticos postados por políticos, chefes, celebridades e outras personalidades.
“O conselho está preocupado com a forma como a Meta tem sobreposto os seus interesses econômicos à moderação de conteúdos”, disse a entidade classificada como independente, mas financiada pela empresa.
Em seu relatório, o conselho pede uma “revisão significativa” do programa de verificação dupla chamado “verificação cruzada”, para torná-lo mais transparente, receptivo e justo.
Atualmente, quando postagens ou imagens que potencialmente violam as políticas do Facebook ou Instagram são sinalizadas, elas são imediatamente removidas se forem consideradas muito arriscadas e se vierem de usuários desconhecidos.
Mas se o autor for conhecido, esse conteúdo permanece online enquanto é examinado mais a fundo, um processo que geralmente leva vários dias e às vezes meses.
Esse sistema “desigual” que opera em duas fases “oferece proteções adicionais ao que certos usuários expressam, escolhidos em parte com base nos interesses econômicos da Meta”, detalha o relatório.
Isso faz com que “o conteúdo identificado como contrário às regras da Meta permaneça visível no Facebook e no Instagram, enquanto se espalha viralmente e causa danos potenciais”, alertou o conselho.
O grupo recomenda acelerar as revisões de conteúdo de personalidades que publicam mensagens importantes sobre direitos humanos e também remover as de alto risco enquanto se aguarda um veredicto interno.
Pede também à empresa que publique os critérios de seleção para se beneficiar do programa e que identifique publicamente as contas destes usuários nas plataformas.
O conselho é composto por 20 membros internacionais, incluindo jornalistas, advogados, defensores dos direitos humanos e ex-líderes políticos. Sua criação em 2020 foi proposta pelo CEO Mark Zuckerberg e é responsável por avaliar a política de moderação de conteúdo do grupo californiano.