O Marco Civil da Internet precisa ser atualizado? Como é a regulação nos EUA e na Europa?
Audiência pública no STF discute responsabilidade das plataformas. Julgamento na Suprema Corte americana e nova legislação europeia pautam debate global; entenda
O Supremo Tribunal Federal (STF) dá início nesta terça-feira (28) a uma audiência pública sobre o Marco Civil da Internet. Serão ouvidos ministros, especialistas, associações de classes e representantes das big techs. O objetivo é debater a responsabilidade das plataformas digitais pelos conteúdos publicados pelos seus usuários e a possibilidade de remoção de conteúdo ofensivo sem necessidade de decisão judicial.
A audiência pública estava prevista para 2020, mas foi adiada em três anos por causa da pandemia.
O Marco Civil da Internet, que entrou em vigor em 2014, poderá ser revisto e atualizado para responsabilizar redes como Facebook, Google, YouTube, TikTok e Twitter pelo conteúdo publicado por seus usuários.
Nos EUA, dois julgamentos históricos da Suprema Corte vão definir os rumos da responsabilização das big techs, já que a maior parte dessas empresas é americana.
A Europa aprovou recentemente um novo marco para o setor, que é considerado por especialistas o mais avançado no mundo.
Leia também
• Cliente de Jaboatão compra iPhone para pai na internet, mas recebe quebra-cabeça
• Twitter diz que parte de seu código-fonte vazou na internet
• China diz que não pede às empresas que "entreguem dados" coletados no exterior
A audiência pública marcada pelo STF vai discutir tanto a responsabilização das plataformas digitais pelo conteúdo criado por seus usuários, olhando para o dever das empresas de fiscalizarem essa produção, quanto a remoção de conteúdos ofensivos poder ser feita sem a necessidade de haver uma decisão judicial.
Ricardo Campos, diretor do Legal Grounds Institute, explica que o Artigo 19 do Marco Civil da internet também criou uma forma de proteção às empresas, já que “a única palavra para determinar remoção de conteúdo é dada via decisão judicial”.
Analistas explicam que tanto o Marco Civil no Brasil como a atual diretriz americana, amparada na Seção 230 da Lei de Decência das Comunicações, de 1996, foram criados sob o princípio de incentivar a inovação. Mas, diante do aumento de poder de mercado dessas plataformas e do avanço do conteúdo ofensivo, essas regulações precisam ser atualizadas.
A Europa está à frente neste debate: entrou em vigor, em novembro passado, a Lei de Serviços Digitais (DSA, na sigla em inglês) na União Europeia, que prevê um escopo maior de responsabilidade para as plataformas.
Entenda, abaixo, as discussões a nível global.
Estados Unidos
Nos Estados Unidos, a Seção 230 da Lei de Decência das Comunicações, criada em 1996 — que inspirou legislações de diversos países, como a brasileira, por exemplo —, praticamente blinda as big techs da responsabilidade por publicações de seus usuários, reservando ainda unicamente a elas a moderação de conteúdo em suas plataformas.
Agora, contudo, a regra está sendo posta à prova por dois processos judiciais movidos por famílias de vítimas de ataques terroristas.
Em um dos casos, familiares da jovem americana Nohemi Gonzalez, morta em um dos atentados realizados pelo Estado Islâmico em Paris em novembro de 2015, aos 23 anos de idade, processaram o Google, argumentando que o YouTube teria facilitado a radicalização de usuários da plataforma de vídeo que consomem propaganda islâmica.
Como as recomendações de conteúdo são feitas com base nas preferências dos usuários, o YouTube teria influenciado na radicalização de quem assistiu esses conteúdos.
No outro, as empresas de tecnologia, encabeçadas pelo Twitter, mas incluindo ainda Google e Facebook, recorreram à Suprema Corte ao serem derrotadas em ação que aponta haver cumplicidade dessas plataformas com atos de terrorismo já que hospedam conteúdo de usuários que costumam demonstrar apoio a grupos que praticam esses atos violentos.
A tendência, afirmam especialistas, é que essa discussão cresça e que a decisão tomada pela Suprema Corte americana tenha eco globalmente.
"A Seção 230 veio para proteger a inovação em estágio inicial, porque não se sabia o potencial da internet, o que viria a se tornar. Hoje, ela funciona como uma vasta imunidade do ponto de vista jurídico para essas plataformas digitais, que se tornaram imunes a queixas contra conteúdos de terceiros" explica Ricardo Campos, diretor do Legal Grounds Institute.
Esse contexto das empresas, porém, mudou, frisa ele:
"Já temos experiências de danos ligados a ataques à democracia e à propagação de informações falsas, como no caso da Cambridge Analytics, do (processo para definição do) Brexit, das eleições presidenciais de 2018 no Brasil ou dos eventos de 8 de janeiro em Brasília. A lista cresce."
Sydney Sanches, presidente do Instituto dos Advogados Brasileiros e especializado em propriedade intelectual e direito autoral, vai na mesma direção:
"Acontece que as plataformas digitais passaram a ter uma influência na vida das pessoas. Além das relações interpessoais, agora implicam também nos interesses coletivos. Então, esse debate pela revisão da regra é natural diante de pilares da democracia e dos direitos humanos sendo atingidos, desvirtuados e até ceifados."
Os casos relacionados a atos terroristas, diz ele, trazem um elemento de força a esse processo em curso para revisar a legislação.
— Um dos argumentos é que esse impulsionamento de conteúdo produzido por extremistas vai contra o que determina a lei antiterrorismo nos Estados Unidos. Daí, tem um conflito de normas que tem que ser moderado.
Sydney Sanches destaca que a decisão americana terá repercussões globais:
"Se houver revisão da Seção 230, a consequência será absurda. Essa forma (da internet) de se comunicar no mundo nasceu no Vale do Silício. Se tiver revisão nos Estados Unidos, vai impactar o que vem sendo discutindo em outros territórios. Ratifica o processo. E quem se alinha à ampla defesa de publicação nas redes sociais terá de olhar para isso" estima.
Europa
O exemplo de maior destaque na modernização do arcabouço legal para as grandes plataformas de internet vem da Lei de Serviços Digitais (DSA, na sigla em inglês), em vigor desde novembro na União Europeia.
A regulação para o setor definiu uma série de obrigações a serem cumpridas, incluindo penalizações, para conter a propagação de conteúdo agressivo, ilegal e que impliquem em riscos sistêmicos.
"A DSA é a mais moderna no setor no mundo, e já obriga as empresas a terem um canal para as pessoas iniciarem procedimentos de queixa na própria plataforma digital. É que hoje a moderação de conteúdo é totalmente determinada pelas big techs" destaca Campos. "Então, começa-se a ter acesso a essa caixa preta".
As empresas de tecnologia tentam contornar a regulação, ainda que sejam alvo de crescente escrutínio de órgãos reguladores, entidades civis e processos judiciais.
O Google sustenta que, se as empresas forem responsabilizadas pelas publicações de seus usuários, a internet “se tornaria uma distopia na qual os provedores enfrentariam pressão legal para censurar qualquer conteúdo censurável”, como noticiou o El País.
Sobre conteúdo recomendado, a alegação é de que mexer nisso poderia impactar toda a estrutura de algoritmos da internet, não apenas em curadoria de conteúdo mas também em mecanismos de busca, de acordo com reportagem do Financial Times.
"As big techs são as empresas com mais capital no planeta. Elas podem fazer um monitoramento maior, ajustar o algoritmo. Já fazem isso com pornografia infantil, por exemplo. Um pouquinho mais de investimento não ajudaria a fazer esse mapeamento de conteúdo terrorista e agressivo?" pondera Campos.
Na avaliação dele, a nova regulação da União Europeia tende a ser replicada em outros países, sendo balizadora para o Projeto de Lei 2630 (de combate às fake news), assim como ocorreu em proteção de dados, com a criação da Lei Geral de Proteção de Dados brasileira.