Responsabilidade de platataformas: Meta defende ações de moderação antes de retomada de julgamento
Empresa, que é dona do Facebook e do Instagram, apesentou ainda dados de conteúdos removidos de suas plataformas durante o período eleitoral
Horas antes da retomada, nesta quarta-feira (4), do julgamento no Supremo Tribunal Federal (STF) que discute regras para redes sociais e a responsabilidade delas por conteúdos publicados, a Meta, dona do Facebook e do Instagram, divulgou nota defendendo suas ações na moderação de conteúdo das plataformas.
O texto cita ainda o artigo 19 do Marco Civil da Internet, que pode sofrer alterações e ser até extinto, como importante para a "liberdade de expressão".
"Fica evidente, a partir dos dados no relatório sobre as medidas adotadas pela Meta para proteger a integridade da eleição brasileira, que a empresa atua de forma diligente e sem precisar ser acionada pelo Judiciário para remover conteúdos, salvo em casos ambíguos. O debate sobre atualização das regras da internet é importante, inclusive quanto ao artigo 19 do Marco Civil da Internet. A regra estabelece um sistema de responsabilização dos provedores de aplicação sobre conteúdos postados por terceiros privilegiando a liberdade de expressão, ao mesmo tempo permitindo que as plataformas moderem os conteúdos postados nelas", diz o texto divulgado pela Meta.
O texto falou ainda das ações da empresa durante o período eleitoral municipal, apresentando dados de conteúdos removido, sem delimitar efetivamente o que era de cunho político.
"No período eleitoral entre agosto e outubro deste ano, removemos mais de 2,9 milhões de conteúdos no Facebook, Instagram e Threads no Brasil por violação de nossas políticas de bullying e assédio, discurso de ódio e violência e incitação", afirma.
Leia também
• STF retoma julgamento sobre responsabilidade de redes por conteúdos
• Redes sociais democratizam conhecimento, mas empobrecem idioma escrito, aponta estudo
• Como a Austrália vai (ou não) manter crianças e adolescentes longe das redes sociais
A nota não cita o julgamento diretamente, mas a empresa é partes de uma das três ações que tratam de regras para redes sociais em discussão no STF. O julgamento pelo Supremo Tribunal Federal (STF) está previsto para ser retomado às 14h, desta quarta-feira, com o voto do ministro Dias Toffoli.
Na quinta-feira da semana passada, o ministro Alexandre de Moraes disse que os ataques antidemocráticos de 8 de janeiro de 2023 demonstram a "total falência" do sistema e autorregulação das plataformas de redes sociais e das big techs.
Relator de um dos casos, Toffoli começou a proferir o voto, o que será concluído nesta quarta. A afirmação de Moraes ocorreu durante a exposição de argumentos das entidades que participam do julgamento.
No início da análise, na semana passada, os ministros relatores dos casos sinalizaram a importância de que a Corte estabeleça balizas para a atuação de empresas nesta seara. O que está em discussão no julgamento é o modelo de responsabilização das plataformas pelo conteúdo de terceiros — se e em quais circunstâncias as empresas podem sofrer sanções por conteúdos ilegais postados por seus usuários.
Em uma mudança na posição que vinha defendendo anteriormente, a Advocacia-Geral da União (AGU) defendeu a exclusão de conteúdos por plataformas mesmo sem decisão judicial. O advogado-geral da União, Jorge Messias, lembrou que, à época da construção do Marco Civil da Internet, o que se discutia era a soberania do país.
– Efetivamente, nós estamos tratando de algo maior, da própria sobrevivência do Estado Democrático de Direito – disse Messias.
Dessa forma, a AGU passou a defender a inconstitucionalidade do artigo 19 do Marco Civil – o que faria com que a norma deixasse de existir. Antes, a AGU defendia a manutenção da regra, mas com algumas ressalvas sobre a remoção de conteúdo.
– Ouvindo aqui diversos representantes que me antecederam, inclusive de plataformas, que me alertaram corretamente para risco de judicialização e de litigância predatória, quero crer que o regime inaugurado pelo artigo 19 não deve ser mantido à luz da nossa Constituição – disse Messias.
Leia a íntegra da nota:
Estamos publicando hoje um relatório sobre as medidas adotadas pela Meta para proteger a integridade do processo eleitoral nas nossas plataformas, em conformidade com as resoluções do Tribunal Superior Eleitoral (TSE) para as eleições municipais no Brasil em 2024.
Como os números abaixo sobre moderação de conteúdo atestam, não há inércia da Meta para detectar e agir sobre conteúdos nocivos, ao contrário do que tem se ouvido no debate público. Além disso, nosso modelo de negócios não prospera em um ambiente online tóxico: os anunciantes não querem ver suas marcas vinculadas a conteúdos nocivos.
Queremos ser claros: não toleramos violência e outros comportamentos nocivos em nossos serviços. E não agimos sobre esses tipos de conteúdos somente quando recebemos ordens judiciais, pelo contrário.
O trabalho para garantir a integridade das nossas plataformas é permanente. No período eleitoral entre agosto e outubro deste ano, removemos mais de 2,9 milhões de conteúdos no Facebook, Instagram e Threads no Brasil por violação de nossas políticas de bullying e assédio, discurso de ódio e violência e incitação.
Foram removidos 520 mil conteúdos por bullying e assédio; mais de 550 mil conteúdos por discurso de ódio; e mais de 1,9 milhão de conteúdos por violência e incitação. Mais de 95% dos conteúdos com bullying foram identificados pela própria Meta e removidos antes de qualquer denúncia. Nos outros tipos de conteúdos violadores mencionados, esse percentual ficou acima de 99%.
Fica evidente, a partir dos dados no relatório sobre as medidas adotadas pela Meta para proteger a integridade da eleição brasileira, que a empresa atua de forma diligente e sem precisar ser acionada pelo Judiciário para remover conteúdos, salvo em casos ambíguos. Os casos judiciais representam uma fração mínima comparada à moderação de conteúdo feita pela própria empresa.
O debate sobre atualização das regras da internet é importante, inclusive quanto ao artigo 19 do Marco Civil da Internet. A regra estabelece um sistema de responsabilização dos provedores de aplicação sobre conteúdos postados por terceiros privilegiando a liberdade de expressão, ao mesmo tempo permitindo que as plataformas moderem os conteúdos postados nelas.
Nesse contexto, é relevante considerar o trabalho efetivo que plataformas como as da Meta fazem para combater conteúdos nocivos. Temos mais de 40 mil colaboradores na Meta dedicados a assegurar um ambiente saudável em nossos serviços, e investimos cerca de US$20 bilhões para isso desde 2016.
Para ver o relatório completo sobre o trabalho da Meta para proteger a integridade das eleições municipais do Brasil em 2024, incluindo métricas sobre remoção de contas, bloqueio de anúncios e rotulagem de informações falsas, clique no arquivo disponível na seção de downloads.