Moraes atribui crescimento do extremismo às redes sociais
Em evento sobre 8 de janeiro, ministro diz que Justiça já demostrou que Brasil não é "terra sem lei"
Um dia após o anúncio do Facebook de que irá acabar com a política de checagem de fatos nos Estados Unidos, o ministro Alexandre de Moraes, do Supremo Tribunal Federal ( STF), afirmou nesta quarta-feira que as redes sociais só continuarão a operar no Brasil se cumprirem a legislação do país. A afirmação do ministro ocorreu durante solenidade na Corte em memória dos dois anos dos ataques golpistas de 8 de janeiro de 2023.
Leia também
• MPF oficia Meta para saber se mudanças na política de checagem de fatos se aplicam ao Brasil
• Mulher que pichou estátua do STF no 8/1 fez carta com desculpa a Moraes
• Lula brinca com Moraes: "Ninguém vai parar de te chamar de Xandão"
Em sua fala, Moraes creditou o crescimento do extremismo pelo mundo às redes sociais, que atuam sem regulação e deram instrumentos para que discursos extremistas proliferem. E classificou como "desafio" a responsabilização dessas empresas pelos conteúdos publicados.
–- O desafio no Brasil e no mundo é o de não permitir que esses gigantes conglomerados que são as big techs com seus dirigentes, por achar que por terem dinheiro, podem mandar no mundo. O desafio de regulamentar, responsabilizar — disse o ministro do STF.
Moraes disse que, no Brasil, a Justiça Eleitoral e o Supremo Tribunal Federal já demonstraram que “aqui é uma terra que tem lei”.
— As redes sociais não são terra sem lei. No Brasil, só continuarão a operar se respeitarem a legislação brasileira, independentemente de bravatas de dirigentes responsáveis das big techs. Obrigado e viva a democracia — afirmou.
Segundo o magistrado, que é relator no STF das investigações envolvendo os ataques de 8 de janeiro, a Corte irá atuar para que as redes sociais não sejam "instrumentalizadas" para propagar discursos extremistas.
— Pelo resto do mundo nós não podemos falar. Mas pelo Brasil, eu tenho absoluta certeza e convicção que o Supremo Tribunal Federal não vai permitir que as big techs, as redes sociais, continuem sendo instrumentalizadas, dolosa ou culposamente, ou ainda somente visando lucro, instrumentalizadas para ampliar discursos de ódio, nazismo, fascismo, misoginia, homofobia e discursos antidemocráticos – afirmou.
No mesmo evento, o decano da Corte, ministro Gilmar Mendes, afirmou que o governo do ex-presidente Jair Bolsonaro disseminou "discurso de ódio, o fanatismo político e a indústria de desinformação".
O ministro ainda apontou que a regulamentação das redes implementada pela União Europeia "jamais pode ser confundida com censura" e ressaltou a importância de se chegar a algo semelhante no Brasil.
— É fora de dúvida que nossas instituições devem conceber mecanismos para inibir a circulação de discursos criminosos nas redes sociais. As retóricas sobre liberdade de expressão nos espaços virtuais devem ser redimensionadas dentro da realidade democrática. A proteção desta liberdade fundamental encontra seu alicerce na inviolável integridade informacional — disse Gilmar.
Os ministros do STF não citaram diretamente a decisão anunciada pela Meta, comandada pelo bilionário Mark Zuckerberg.
Nesta terça-feira, a gigante das redes sociais Meta — dona do Facebook, do Instagram e do WhatsApp — anunciou mudanças em suas práticas de moderação de conteúdo, incluindo o fim do programa de checagem de fatos, política criada há oito anos para reduzir a disseminação de desinformação em suas redes sociais.
Em 2024, o STF, por meio de uma decisão de Moraes, bloqueou o X e determinou que a rede social de Elon Musk pagasse mais de R$ 28 milhões em multas após sucessivos descumprimentos de decisões judiciais envolvendo remoção de conteúdos falsos.
Desde o final de 2024 o Supremo julga uma ação que discute uma mudança no Marco Civil da Internet para levar à responsabilização das big techs pelos conteúdos publicados por terceiros. A análise do tema foi interrompida na última sessão do ano pelo ministro André Mendonça, que pediu vista, mas deve ser retomada no primeiro semestre de 2025.
Até agora, os três votos já apresentados pelos ministros impõem — em maior ou menor medida — responsabilidades mais severas às plataformas quanto aos conteúdos publicados, além de darem às empresas uma série de regras que precisam ser cumpridas sob pena de violação das leis brasileiras.
O que está em discussão no julgamento do STF é o modelo de responsabilização das plataformas pelo conteúdo de terceiros — se e em quais circunstâncias as empresas podem sofrer sanções por conteúdos ilegais postados por seus usuários.