BRASIL

Com voto de Fux, STF retoma julgamento sobre responsabilização das redes sociais por conteúdos

Ministro é relator do segundo processo em análise

Ministro Luiz Fux - Gustavo Moreno/SCO/STF.

O Supremo Tribunal Federal (STF) volta a julgar nesta quarta-feira (11) as ações que tratam da responsabilidade das plataformas de redes sociais por conteúdos publicados. Esta será a quinta sessão do julgamento que discute a validade do artigo 19 do Marco Civil da internet, e a análise será retomada com o voto do ministro Luiz Fux. A expectativa na Corte é a de que o voto do ministro seja longo, e tome toda a sessão desta quarta.

Fux é relator da segunda ação que será apreciada pela Corte a respeito do tema. O caso chegou ao Supremo em 2017, depois que o antigo Orkut negou remover uma comunidade criada com o nome de uma professora de Belo Horizonte. Em 2010, ela acionou a Justiça para pedir a exclusão da comunidade e com pedido indenizatório, e ganhou em primeira e segunda instância, mas a big tech recorreu das decisões.

Na semana passada, quando o ministro Dias Toffoli – relator da outra ação sobre o tema – apresentava o seu voto, Fux afirmou que a manutenção pelos provedores de redes sociais de contas inautênticas e automatizadas representa um "ilícito civil grave" que pode ameaçar a liberdade de expressão.

– A manutenção de contas inautênticas, desidentificadas e ou automatizadas nos ambientes virtuais, por inércia dos provedores de aplicação e obstáculos com a criação ou uma vez criadas, identificadas e neutralizadas, constitui ilícito civil grave e pode colocar em risco a própria liberdade de expressão – disse.

O artigo 19 do Marco Civil, defendido pelas plataformas, diz que não cabe às plataformas decidir se os conteúdos publicados pelos usuários são lícitos ou não. De acordo com o texto legal, as empresas por trás das plataformas só poderão ser responsabilizadas nos casos em que, após ordem judicial específica, não removerem em tempo hábil conteúdo apontado como ilícito.

Artigo 19 é inconstitucional
Na sessão anterior do julgamento, o ministro Dias Toffoli votou a favor da derrubada do artigo 19 do Marco Civil da Internet e defendeu que, em casos de conteúdos ofensivos ou ilícitos, as plataformas digitais devem agir a partir de uma notificação extrajudicial, sem necessidade de ordem judicial. O ministro declarou o dispositivo da lei inconstitucional.

Toffoli defende a aplicação ampliada do artigo 21 do Marco Civil – que prevê a exclusão de conteúdo sem notificação judicial – nos casos de crimes contra o Estado Democrático de Direito; atos de terrorismo ou preparatórios de terrorismo; crime de induzimento, instigação ou auxílio a suicídio ou à automutilação; crime de racismo; qualquer espécie de violência contra a criança, o adolescente e as pessoas vulneráveis qualquer espécie de violência contra a mulher; infração sanitária, por deixar de executar, dificultar ou opor-se à execução de medidas sanitárias em situação de Emergência em Saúde Pública de Importância Nacional.

Na proposta de Toffoli, o provedor de aplicações de internet será responsabilizado pelos danos decorrentes de conteúdos gerados por terceiros, inclusive na hipótese de danos à intimidade, à vida privada, à honra e à imagem, quando, "notificado pelo ofendido ou seu representante legal, preferencialmente pelos canais de atendimento, deixar de promover, em prazo razoável, as providências cabíveis".

Na tese, Toffoli defende que o provedor de aplicações de internet seja responsabilizado civilmente pelos danos decorrentes de conteúdos gerados por terceiros quando, após a notificação do ofendido, não tomar providências em prazo razoável (exceto em casos da legislação eleitoral e atos do TSE). O ministro ainda detalha que a apuração da responsabilidade deve considerar as atividades do provedor, incluindo interferência algorítmica e automatizada.

Autores dos recursos que estão sendo discutidos no STF, Facebook e Google apresentaram seus argumentos aos ministros em defesa do artigo 19 do Marco Civil, e alegaram que as empresas já dispõem de mecanismos de moderação e remoção de conteúdos, sem que haja necessidade de uma regra que permita a remoção sem decisão judicial.