LIVE

Como era o serviço de checagem da Meta e quais tipos de postagens eram barradas que agora podem aparecer

Meta encerrou o programa de verificação de fatos, permitindo que conteúdos considerados problemáticos sejam ‘corrigidos’ pelos próprios usuários. Especialistas alertam que postagens de ‘menor gravidade’ poderão permanecer no ar sem verificação, estimulando desinformação e discursos de ódio. Meta, dona de Instagram e Facebook, encerrará sistema de checagem de fatos A Meta, dona do Instagram e […]


Meta encerrou o programa de verificação de fatos, permitindo que conteúdos considerados problemáticos sejam ‘corrigidos’ pelos próprios usuários. Especialistas alertam que postagens de ‘menor gravidade’ poderão permanecer no ar sem verificação, estimulando desinformação e discursos de ódio. Meta, dona de Instagram e Facebook, encerrará sistema de checagem de fatos
A Meta, dona do Instagram e do Facebook, decidiu encerrar seu programa de verificação de fatos para concentrar esforços apenas em conteúdos considerados de “alta gravidade”.
A mudança, que começa pelos Estados Unidos, foi anunciada pelo “chefão” da empresa Mark Zuckerberg em um vídeo de 5 minutos publicado no Instagram na última terça-feira (7).
Na publicação, Zuckerberg disse ainda que suas plataformas passarão a recomendar mais conteúdo político e que a equipe de “confiança, segurança e moderação de conteúdo”, que revisa posts de usuários dos EUA, deixará a Califórnia, um estado considerado progressista, e será realocada no Texas, governado por conservadores do Partido Republicano, o mesmo do presidente eleito Donald Trump.
Especialistas consultados pelo g1 alertam que a alteração na moderação de conteúdo permitirá que posts considerados problemáticos apareçam com mais frequência e permaneçam no ar sem a verificação da empresa, como desinformação sobre vacinas, Covid e eleições.
Nesta reportagem, você vai saber:
Como funcionava o sistema de checagem
E como fica a partir de agora?
Postagens antes barradas agora podem aparecer
Como funcionava o sistema de checagem
Instagram mostrou, em 2019, como seriam os avisos feitos por checadores independentes em posts conteúdo que tivessem alguma desinformação
Reprodução/Instagram
A moderação de conteúdo da Meta começou em 2016, após a vitória de Donald Trump nas eleições dos EUA. Na época, o Facebook foi acusado de ajudar a eleger Trump ao permitir que uma empresa usasse dados da base de usuários da rede social para espalhar notícias falsas.
O caso ficou conhecido pelo nome da companhia, Cambridge Analytica e chegou a gerar prejuízos financeiros para a plataforma de Zuckerberg. além de uma intenção pressão pública e até de funcionários do Facebook pelo combate à desinformação.
ENTENDA: o vai e vem na relação de Zuckerberg e Trump
De acordo com especialistas, para combater as fake news, a empresa criou a biblioteca de anúncios, estabeleceu um conselho com participação social e implementou o programa terceirizado de checagem de fatos, com organizações de fora da Meta, visando aumentar a transparência com seus usuários.
Quem eram os checadores – para fazer parte do programa da Meta, todos os checadores precisavam ser certificados e seguir os princípios da International Fact-Checking Network (IFCN), uma aliança global de checagem de fatos do Instituto Poynter, baseado nos EUA.
Desde 2016, mais de 80 organizações, atuando em mais de 60 idiomas, colaboravam com a empresa de Mark Zuckerberg. As agências de notícias Reuters, France Presse e Associated Press eram alguns desses parceiros.
No Brasil, a Meta conta com o apoio de cinco parceiros de checagem de fatos.
Esses parceiros podiam analisar materiais publicados no Instagram e no Facebook, abrangendo vídeos, imagens, links e textos.
Os parceiros de verificação tinham autonomia para identificar conteúdos suspeitos, mas, antes disso, equipes da própria Meta identificavam postagens virais com potencial de conter informações imprecisas.
Os checadores independentes avaliavam a precisão das publicações por meio de entrevistas com fontes primárias, análise de dados públicos e verificação de fotos e vídeos, segundo a própria Meta.
Os checadores que atuavam em parceria com a Meta não tinham autoridade para remover conteúdos, segundo Yasmin Curzi, pesquisadora do Karsh Institute of Democracy da Universidade de Virgínia (EUA).
Após a apuração, os parceiros notificavam a Meta sobre o problema no conteúdo. A big tech, então, decidia entre tirar a postagem do ar, reduzir o alcance — fazendo com que menos pessoas a vissem — ou exibir rótulos para alertar que havia algo errado naquele post, como nos exemplos abaixo.
Post de Trump no Facebook, em 2020, quando ele questionava o resultado da eleição de Joe Biden, recebeu aviso da Meta com a confirmação de quem tinha sido o vencedor das eleições
Reprodução/Facebook
“Existe ainda outro grupo de parceiros chamado ‘Trusted Flagger’ (sinalizadores de confiança). No entanto, esses participantes também não têm autoridade para remover conteúdos. Eles possuem maior capacidade de diálogo com a Meta, permitindo acelerar o processo de verificação”, explica Yasmin.
Também há um comitê de supervisão da Meta, chamado de Oversight Board, um órgão independente, que funciona como uma espécie de alta corte em que usuários podem apelar sobre a remoção ou recolocação de conteúdo no Facebook e no Instagram (não vale para o WhatsApp, pois as mensagens trocadas são criptografadas).

Leia também