Comitê de Supervisão da Meta critica política de moderação das plataformas na guerra Israel-Hamas
Após os ataques de 7 de outubro, a Meta reduziu temporariamente os limites dos sistemas de classificação automática, que identificam e removem conteúdos violentos e discursos de ódio
O Comitê de Supervisão da Meta criticou as plataformas da empresa nesta terça-feira (19) por adotarem uma política de moderação excessivamente restrita no contexto do conflito entre Israel e o grupo islamista palestino Hamas.
Em resposta ao "aumento excepcional de conteúdos violentos e gráficos em suas plataformas" após os ataques de 7 de outubro, a Meta "reduziu temporariamente os limites dos sistemas de classificação automática", que identificam e removem conteúdos violentos e discursos de ódio, explicou nesta terça-feira o Comitê de Supervisão da Meta em seu site.
As medidas foram aplicadas em conteúdos de todos os idiomas, procedentes de Israel e Gaza. "A Meta estava usando suas ferramentas automáticas de maneira mais agressiva para remover conteúdos suscetíveis de violar suas políticas", destacou o Comitê.
Embora reconheça o benefício desse sistema, o Comitê acredita que limitar essa política aumenta o risco de a Meta remover, por engano, conteúdos relacionados ao conflito que não violam as regras.
Atualmente, quando mensagens ou imagens que potencialmente violam as regulamentações do Facebook ou do Instagram são denunciadas, as publicações são removidas rapidamente, se consideradas de alto risco, ou se provenientes de usuários desconhecidos.
O Comitê de Supervisão se baseou em dois casos específicos: um deles referente a um vídeo publicado no Facebook que mostra uma mulher israelense implorando aos seus sequestradores para não matá-la, enquanto é feita de refém durante o ataque do Hamas em 7 de outubro.
O outro vídeo, publicado no Instagram, mostra o que parecem ser as consequências de um ataque perto do hospital Al Shifa, em Gaza, durante a ofensiva terrestre israelense. Este vídeo mostra palestinos mortos e feridos, incluindo crianças.
"Em ambos os casos, o Comitê revogou a decisão inicial da Meta de remover o conteúdo de suas plataformas, mas aprovou a decisão posterior da empresa de restaurar as publicações com um alerta", indicou o documento.
"Dadas as circunstâncias rapidamente mutáveis e os altos riscos que a remoção desse tipo de conteúdo representa para a liberdade de expressão e o acesso à informação, a Meta deveria ter agido mais rapidamente para adaptar sua política", argumentou o Comitê.
Criado em 2020 por sugestão do CEO da Meta, Mark Zuckerberg, esse órgão é composto por 20 membros internacionais, jornalistas, advogados, defensores dos direitos humanos e ex-líderes políticos.