Rede social recorre ao seu ‘supremo tribunal’ sobre decisão, diz chefe de assuntos globais, Nick Clegg
O Facebook está recorrendo ao seu “supremo tribunal” para decidir se encerra as restrições à desinformação sobre a Covid, mais de dois anos depois que a empresa começou a tomar medidas especiais sobre postagens que promovem falsidades sobre a doença.
A rede social está considerando mudar a maneira como lida com essas informações erradas, por exemplo, rotulando-as como falsas ou rebaixando-as na classificação algorítmica, em vez de simplesmente removê-las do site. Ele quer fazer a mudança agora, de acordo com o chefe de assuntos globais, Nick Clegg , “já que muitos, embora não todos, países ao redor do mundo buscam retornar a uma vida mais normal”.
Mas, para evitar fazer a escolha errada ao “resolver as tensões inerentes entre liberdade de expressão e segurança”, o Facebook recorrerá ao seu conselho de supervisão, o autorregulador à distância criado em maio de 2020 , para decidir qual será a moderação futura. política deve ser.
“Estamos solicitando uma opinião consultiva do conselho de supervisão sobre se as medidas atuais da Meta para lidar com a desinformação do Covid-19 sob nossa política de desinformação prejudicial à saúde continuam sendo apropriadas”, disse Clegg, “ou se devemos abordar essa desinformação por outros meios, como rotulando-o ou rebaixando-o diretamente ou por meio de nosso programa de verificação de fatos de terceiros.”
Ao solicitar uma opinião, o Facebook não está se comprometendo a honrar o julgamento emitido pelo conselho, levando alguns a questionar se o site estava simplesmente buscando cobertura para tomar uma decisão que provavelmente será amplamente impopular com uma grande parte da sociedade, seja qual for a sua escolha.
Em um comunicado, o conselho de supervisão disse que aceitou o pedido do Facebook. “A Meta [empresa controladora do Facebook] deve enviar as recomendações do conselho por meio de seu processo oficial de desenvolvimento de políticas e fornecer atualizações regulares sobre isso, inclusive por meio de sua redação”, acrescentou o conselho.
“Embora a opinião consultiva de política do conselho não seja vinculativa, a Meta deve fornecer uma resposta pública e ações de acompanhamento dentro de 60 dias após o recebimento de nossas recomendações.”
Em sua solicitação detalhada de uma opção, a Meta disse que o aumento da disponibilidade de orientações autorizadas significa que é menos provável que a desinformação seja postada em um “vácuo de informações”. Também argumentou que o desenvolvimento de vacinas e tratamentos terapêuticos, bem como a evolução de variantes como a cepa Omicron, significam que o Covid-19 é menos mortal do que costumava ser, e disse que “as autoridades de saúde pública estão avaliando ativamente se O Covid-19 evoluiu para um estado menos grave”.
“A Meta continua comprometida em combater a desinformação do Covid-19 e fornecer às pessoas informações confiáveis”, disse Clegg em comunicado. “À medida que a pandemia evolui, é o momento certo para buscarmos informações do conselho de supervisão sobre nossas medidas para lidar com a desinformação do Covid-19, incluindo se as introduzidas nos primeiros dias de uma crise global extraordinária continuam sendo a abordagem correta para os meses. e anos à frente.”
O conselho de supervisão é financiado pelo Facebook, e seus quatro primeiros membros, todos com o título de copresidente, foram selecionados pela rede social. Os copresidentes e o Facebook escolheram o conselho inicial de 20, que inclui o ex-editor do Guardian Alan Rusbridger, e com o tempo pretendem expandi-lo para um conselho de 40, quando o Facebook diz que deixará de se envolver na seleção de membros. Depois de mais de dois anos, no entanto, o conselho ainda é de apenas 23 pessoas.
Apesar dos vínculos estreitos, o conselho teve alguns confrontos com o Facebook. Em 2021, rejeitou uma tentativa da rede social de forçá-la a decidir – e assumir as consequências políticas – se deveria bloquear permanentemente Donald Trump do site e, no mesmo ano, também anulou a tentativa do Facebook de impedi-lo de julgar. em um caso particular, em uma afirmação de sua própria autoridade comparada por observadores à histórica decisão da Suprema Corte dos Estados Unidos em 1803 em Marbury v Madison.