regulamentação da internet

Moraes diz que modelo de regulamentação está "falido" e que redes sociais foram "instrumentalizadas"

Ministro participou de audiência pública no STF sobre responsabilidade de plataformas sobre conteúdos, que o problema é mundial e que as redes não podem ser 'terra de ninguém'

Alexandre de MoraesAlexandre de Moraes - Foto: Joédson Alves/Agência Brasil

O ministro Alexandre de Moraes, do Supremo Tribunal Federal (STF), afirmou nesta terça-feira (28) que o modelo atual de regulamentação da internet está "falido" e que as redes foram "instrumentalizadas" na preparação dos atos golpistas do dia 8 de janeiro.

Moraes fez as declarações na abertura de uma audiência pública que está sendo realizada no STF para discutir a responsabilidade das plataformas sobre conteúdos publicados pelos seus usuários.

O ministro, que também é presidente do Tribunal Superior Eleitoral (TSE), afirmou que as redes destroem "reputações" e "dignidades" e levaram ao aumento de casos de depressão e suicídios entre adolescentes.

— Todos concordam que o modelo atual é ineficiente. O modelo atual, por mais que alguns queiram defender, é absolutamente ineficiente. Destrói reputações, destrói dignidades, faz e fez com que houvesse um aumento no número de depressão de adolescentes, suicídio de adolescentes, sem que contar a instrumentalização de houve, de todas as plataformas, de todas as big techs, no dia 8 de janeiro.

Moraes disse ainda que o problema é mundial e que as redes sociais não podem ser "terra de ninguém".

— Foram instrumentalizadas para o que nós vimos que ocorreu. Então, é falido o modelo atual. E não é no Brasil, é falido no mundo todo. Não é possível, eu repito sempre isso e vou continuar repetindo, não é possível continuarmos achando que as redes sociais são terra de ninguém, sem responsabilidade alguma.

Na audiência pública, que começou nesta terça e vai até quarta-feira, serão ouvidos 47 expositores, incluindo representantes de algumas das principais redes, como Facebook, Google, ByteDance (dona do TikTok) e Twitter. Também participam representantes do governo federal e associações de classe.

A audiência está sendo realizada para embasar o debate de dois processos que tramitam no STF, relatados pelos ministros Dias Toffoli e Luiz Fux, e discutem as regras do Marco Civil da Internet. A lei, sancionada em 2014, determina em seu artigo 19 que "o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros" se não cumprir determinação judicial para a retirada de conteúdo.

Plataformas defendem regras
Na audiência, tanto Facebook quanto Google defenderam a constitucionalidade deste artigo. As duas empresas argumentaram que as regras atuais não inibem a moderação de conteúdo, e afirmaram que excluem milhões de publicações por conta própria.

O gerente jurídico do Facebook Brasil, Rodrigo Ruf Martins, afirmou que cabe ao Judiciário analisar conteúdos "ambíguos", em que há dúvida sobre a necessidade de exclusão, e que uma mudança na legislação levaria às plataformas a realizarem uma remoção desnecessária desse tipo publicações, para evitarem punições.

— Permita-me, excelências, um alerta. A declaração de inconstitucionalidade (do artigo 19) levaria a um aumento considerável da remoção de conteúdos subjetivos. Conteúdos críticos, que são tão importantes para o debate público e para a democracia, eles acabariam removidos, mesmo sem violar a lei ou as políticas, mas como uma forma de mitigação de riscos jurídicos para a plataforma.

Na mesma linha, o advogado sênior da Google Brasil, Guilherme Cardoso Sanchez, disse que poderia haver um prejuízo ao "ambiente plural da internet":

— Responsabilizar as plataformas como se elas próprias fossem as autoras do conteúdo que hospedam levaria a um dever genérico de monitoramento de todo o conteúdo produzido pelas pessoas, desnaturando completamente o ambiente plural da internet. O artigo 19 do Marco Civil reproduz o consenso dos países democráticos em afastar a responsabilidade direta e objetiva de vigilância das plataformas sobre o conteúdo gerado pelas pessoas

Entre os membros do Executivo que falaram na audiência, o secretário de Políticas Digitais da Secretaria de Comunicação Social (Secom) da Presidência, João Brant, foi o que argumentou de forma mais direta sobre a necessidade de aumentar a responsabilidade das plataformas, apesar de ressaltar que o modelo atual não deve ser totalmente revisto.

— Entre o modelo atual, de responsabilidade praticamente nula, e o modelo de total responsabilidade objetiva, há uma gradação de tonalidades que podem garantir arranjos que poderiam produz um melhor equilíbrio entre direitos, a partir do estabelecimento de deveres de cuidado e de devida diligência para a plataformas, especialmente contra conteúdos ilegais ou conteúdos nocivos que afetem direitos coletivos.

Outros representantes do governo também defenderam a responsabilidade das plataformas, mas sem comentar especificamente sobre mudanças no artigo.

— Do ponto de vista da interpretação do artigo 19, entendemos que as empresas prestadoras de aplicações, que disponibilizam conteúdos na internet, precisam tomar medidas de cuidado por aquilo que permitem publicar ou impulsionam. Em linha com o princípio, previsto no Marco Civil da Internet, da responsabilização dos agentes de acordo com as suas atividades — disse o secretário de Telecomunicações do Ministério das Comunicações, Maximiliano Salvadori Martinhão.

Veja também

X acata ordem judicial e volta a ficar indisponível no Brasil
Justiça

X acata ordem judicial e volta a ficar indisponível no Brasil

Barbalho: Houve sinalização do governo de que MP de R$ 514 mi foi apenas 1ª de outros recursos
RECUROS

Barbalho: Houve sinalização do governo de que MP de R$ 514 mi foi apenas 1ª de outros recursos

Newsletter