Meta muda moderação de conteúdo: saiba o que são as Notas da Comunidade que vão substituir checagens
Movimento que alinha companhia de Zuckerberg ao novo governo Trump traz riscos, mas pode ampliar monitoramento, dizem especialistas
Mark Zuckerberg, fundador e líder da Meta (dona de Facebook, Instagram, Threads e WhatsApp), surpreendeu ontem o mundo com um anúncio que signfica uma guinada em em sua política de moderação de conteúdo, num aceno ao futuro governo de Donald Trump.
Em um vídeo de mais de 5 minutos, Zuckerberg anunciou que a empresa vai abandonar o programa de checagem de fatos e permitir mais conteúdos políticos. As mudanças serão apenas nos Estados Unidos, "inicialmente", segundo ele.
Trump, que assume a Presidência dos EUA no próximo dia 20, afirmou que a brusca mudança da política de moderação de conteúdo da Meta foi " provavelmente" motivada por suas ameaças contra o CEO da empresa. No ano passado, ele chegou a ameaçar Zuckerberg de ser preso.
Leia também
• MPF quer explicações da Meta sobre eventuais impactos no Brasil
• Meta passa a permitir que usuários classifiquem gays e trans como ''doentes mentais''; veja outras
• Trump comemora mudanças na Meta e diz que suas ameaças ''provavelmente'' influenciaram Zuckerberg
O CEO da Meta disse ainda que os verificadores de conteúdo serão substituídos por um sistema conhecido como Notas da Comunidade ou Notas de Contexto, já usado pelo X, de Elon Musk. Mas o que são essas notas e como funcionam? Entenda a seguir.
Como funcionam as Notas da Comunidade?
As notas de contexto são uma ferramenta de moderação coletiva de conteúdo. Elas aparecem abaixo de algumas publicações potencialmente enganosas.
O Twitter as utiliza desde 2021 e, em 2022, elas foram ampliadas na rede social, que foi comprada por Elon Musk e renomeada como X.
As notas são propostas e escritas por usuários voluntários, que precisam se inscrever previamente, e não são editadas pelas equipes da X.
Depois disso, "outros usuários avaliam se a nota é útil ou não, com base em diferentes critérios, como a relevância das fontes e a clareza da informação", explica Lionel Kaplan, presidente da agência de criação de conteúdo para redes sociais Dicenda.
Se houver avaliações positivas suficientes sobre a nota, ela aparecerá abaixo do tweet para fornecer informações adicionais detalhou Kaplan.
Segundo explicou a plataforma X em seu site, as avaliações "levam em conta não apenas o número de colaboradores que classificaram uma publicação como útil ou inútil, mas também se as pessoas que a avaliaram parecem vir de diferentes perspectivas". O princípio é semelhante ao da Wikipedia.
Baseamo-nos nos usuários mais ativos de uma rede social ou plataforma para melhorar a qualidade do conteúdo acrescentou Kaplan.
A Meta, que anunciou agora que seu programa de notas será similar ao da X, considera o sistema "menos parcial" do que o fact-checking, a checagem de conteúdo feito por agências especializadas.
Mas quais são os riscos desse novo modelo?
O Facebook tem um programa de fact-checking em mais de 26 idiomas e remunera mais de 80 veículos ao redor do mundo, como agências de notícias e organizações especializadas, para utilizar suas verificações de fatos em sua plataforma, no WhatsApp e no Instagram.
Com as avaliações, "o problema é que a verificação depende da multidão", aponta Christine Balagué, professora do Instituto Mines-Télécom e fundadora da rede de pesquisa "Good in Tech", que estuda a desinformação.
A multidão pode acertar, mas também pode haver pessoas mal-intencionadas que estejam lá para disseminar informações erradas ela alerta.
Em uma publicação no X, Angie Drobnic Holan, responsável americana da Rede Internacional de Fact-Checking (IFCN, na sigla em inglês), foi na mesma linha: "Essa decisão afetará os usuários que buscam informações precisas e confiáveis".
"Os verificadores de fatos nunca mostraram parcialidade em seu trabalho, e essas críticas vêm de pessoas que acreditam que podem exagerar os fatos e mentir sem serem refutadas ou contraditas", ela acrescentou, destacando o clima de pressão política nos Estados Unidos às vésperas da posse do presidente eleito Donald Trump.
Bill Adair, cofundador da IFCN, afirmou que é "preocupante ver Mark Zuckerberg ecoando os ataques políticos contra os verificadores de fatos, porque ele sabe que os participantes de seu programa assinaram uma carta de princípios que exige transparência e imparcialidade".
Trump, que tem sido especialmente crítico à Meta e ao seu CEO nos últimos anos, disse que "provavelmente" influenciou a decisão. Seu aliado Musk classificou a decisão como "genial" e publicou uma captura de tela de um artigo intitulado "Facebook elimina os verificadores de fatos em uma tentativa de 'restaurar' a liberdade de expressão".
As avaliações são eficazes contra a desinformação?
Pesquisadores demostraram que as notas de contexto "reduzem a disseminação de desinformação em cerca de 20%" na rede X, admitiu Christine Balagué.
Embora esse sistema "não seja 100% confiável", Kaplan considera que as notas de contexto são eficazes e permitem lidar com um volume maior de informações do que o fact-checking.
Ele também aponta para um funcionamento "democrático", que possibilita "ter e confrontar diferentes pontos de vista".
O X, no entanto, é regularmente acusado de permitir a disseminação de informações falsas desde que Elon Musk reduziu drasticamente as equipes de moderação. Mas, segundo esse especialista, isso ocorre principalmente porque "o X incentiva o radicalismo", o que torna a informação falsa mais visível do que em outras plataformas.
A Meta informou que os usuários poderão começar a se inscrever a partir de segunda-feira para escrever notas, assim que o programa for lançado, sem fornecer detalhes sobre os critérios de participação.