Governo Federal

Proposta do governo para regular redes limita extensão da imunidade parlamentar

Texto com sugestões do Executivo restringe publicidade

Marcello Casal jr/Agência Brasil

A proposta do governo do presidente Luiz Inácio Lula da Silva (PT) com sugestões para serem incorporadas ao PL das Fake News, projeto de regulação das plataformas em tramitação na Câmara, altera o texto do Legislativo que, na sua última versão, estende a imunidade parlamentar para as redes sociais. O Executivo também quer que o Congresso Nacional crie uma comissão provisória com o objetivo de elaborar um código de conduta de enfrentamento à desinformação.

Relator do PL das Fake News, Orlando Silva (PCdoB-SP) recebeu na última quinta-feira as sugestões do governo. Entre os principais pontos apresentados pelo Executivo, também estão a previsão de responsabilização por conteúdos associada a um dever de cuidado, a criação de uma entidade autônoma de supervisão para as plataformas, sem detalhamento sobre sua composição, e restrições para publicidade. O conteúdo do texto foi antecipado pela agência de checagem Lupa e foi confirmado pelo GLOBO.

Os principais pontos:

Imunidade parlamentar: Plataformas não poderão remover ou suspender contas de eleitos para Executivo e Legislativo, mas podem suspender por de até sete dias “contumazes violadores" de seus termos de uso e disseminadores de discursos de ódio.

Código de conduta: O Congresso deverá criar uma comissão para elaborar um código de conduta de enfrentamento à desinformação.

Dever de cuidado: Prevê responsabilização das plataformas que não agirem para prevenir ou mitigar práticas ilícitas envolvendo crimes listados no texto.

Supervisão: Aponta que uma "entidade autônoma" irá supervisionar o cumprimento da lei, mas não detalha sua composição.

Remoção: Decisões judiciais que determinarem a remoção imediata de conteúdo ilícito relacionado aos crimes previstos no projeto deverão ser cumpridas pelas plataformas em até 24 horas.

Anúncios: Veda publicidade e impulsionamento de conteúdos "manifestamente ilegais", que "defendam, promovam ou incitem o ódio" e outros temas especificados.

Remuneração: Prevê pagamento por conteúdos protegidos por direitos de autor, ponto já contemplado no texto da Câmara, mas amplia essa previsão para conteúdos musicais e audiovisuais.

Pela redação do governo, as plataformas de grande porte não podem bloquear ou excluir contas indicadas como institucionais por órgãos da Administração Pública e de eleitos para cargos no Executivo e Legislativo nas esferas federal e estadual sem decisão judicial, mas poderão suspender por até sete dias contas que forem “contumazes violadoras dos termos e políticas de uso ou disseminadores de discursos de ódio, conteúdos ilícitos ou com potencial de provocar dano iminente de difícil reparação”. A redação também não incluiu uma vedação à remoção de conteúdos.

A versão do governo traz mais restrições a contas de parlamentares que o texto do relator do projeto, o deputado federal Orlando Silva. Críticos do texto da Câmara apontam que o item proposto pelos deputados causaria uma blindagem a conteúdos publicados por políticos. Já os defensores da medida afirmam que o trecho é apenas uma repetição da Constituição.

A comissão provisória para elaborar um código de conduta de enfrentamento à desinformação deverá ser criada pelo Congresso em até 45 dias após a aprovação do PL. O código deve ter medidas para impedir a disseminação de desinformação com potencial de causar dano significativo, individual ou coletivo, garantir a desmonetização de conteúdo que contenha desinformação, identificar responsáveis por estratégias coordenadas de desinformação, entre outros pontos. A comissão será formada por integrantes do Congresso e representantes da sociedade civil, da academia, das plataformas e de entidades representativas de jornalistas ou agências de checagem.

A proposta também estabelece que as plataformas digitais devem prevenir ou mitigar práticas ilícitas em seus serviços que envolvam crimes contra o Estado Democrático de Direito, contra os direitos das crianças e adolescentes, de saúde pública, de terrorismo, de racismo, de violência de gênero e de estímulo ao suicídio e automutilação. O estabelecimento de um dever de cuidado a ser cumprido pelas plataformas constava no rascunho de uma medida provisória em discussão no Ministério da Justiça, abandonada em seguida pelo governo, e já foi anteriormente defendido pelo ministro Flávio Dino (PSB).

Para fazer a avaliação do chamado “dever de cuidado”, uma atuação sistêmica da empresa contra conteúdos em que se cometa esses crimes, será feita por uma “entidade autônoma de supervisão”. De acordo com o texto, essa análise “será realizada sempre sobre o conjunto de esforços e medidas adotadas pelas plataformas digitais” e não cabe “análise sobre o tratamento de conteúdos individuais”.

Ao mesmo tempo, a sugestão do governo afirma que a plataforma digital de grande porte "será responsabilizada civilmente pelos danos decorrentes de conteúdo gerado por terceiros" que constituam práticas ou incitação à prática desses mesmos crimes, “quando demonstrado conhecimento prévio e comprovado o descumprimento do dever de cuidado”. Isso representaria uma flexibilização do artigo 19 do Marco Civil da Internet que hoje determina que as empresas só podem ser responsabilizadas por conteúdos de usuários se descumprirem decisão judicial. O tema é também analisado em ações no Supremo Tribunal Federal (STF), que questionam a constitucionalidade do artigo.

Supervisão
A entidade autônoma de supervisão também aplicará sanções administrativas, com aplicação de advertência, multa e até suspensão ou proibição do exercício de atividades. Os custos de sua atuação serão oriundos das próprias big techs, por meio de uma taxa de supervisão anual proporcional ao número médio mensal de usuários ativos e de receita de cada empresa.

O texto do governo Lula, porém, não especifica como será composto esse órgão. Pelo texto, a entidade deverá contar com “garantias de autonomia administrativa e independência no processo de tomada de decisões e deve contar com espaços formais de participação multissetorial”. Como mostrou O GLOBO, a criação de um órgão regulador é defendida por Orlando Silva, mas não é consenso no governo. Um dos pontos é se será criada uma nova estrutura ou se suas atribuições devem ser incorporadas a uma já existente. A criação de uma nova estrutura depende de acordo com o governo.

Especialistas avaliam que a ampliação de regras no projeto demanda um fiscalizador e que, sem um órgão regulador, a tarefa de monitoramento da moderação feita pelas redes caberia ao Judiciário. Também alertam para a necessidade de independência do governo.

A proposta do governo enviada ao relator também aponta que decisões judiciais que determinarem a remoção imediata de conteúdo ilícito relacionado aos crimes previstos no projeto deverão ser cumpridas pelas plataformas em até 24 horas. Em caso de descumprimento, está prevista pena de multa de R$ 50 mil a R$ 1 milhão por hora de descumprimento. O texto diz que, no período eleitoral, a Justiça Eleitoral poderá definir em regulamento prazos mais curtos para cumprimento das decisões.

Em outra frente, o governo sugere proibir a publicidade e impulsionamento de conteúdos manifestamente ilegais, que defendam, promovam ou incitem o ódio, a discriminação e a intolerância, que neguem “fatos históricos violentos bem documentados, com o objetivo de minimizá-los”, que incitem a sublevação contra a ordem democrática, ou que tenham indícios de terrorismo ou contra o Estado Democrático de direito, com indícios de crimes de terrorismo. Outra proibição é de publicidade de usuário direcionada ou que vise a ampliação de seu alcance entre usuários crianças e adolescentes.

As big techs também terão que criar um repositório de publicidade. Nele, será fornecido aos usuários o conjunto de publicidades e conteúdos impulsionados que foram exibidos para eles nos últimos seis meses. O texto também amplia as exigências de transparência, ao pedir, por exemplo, "descrição qualificada das providências adotadas" contra conteúdos de caráter criminoso, parâmetros dos sistemas automatizados e outros itens no relatório que deverá ser apresentado pelas empresas. A proposta também determina a produção de um relatório em que as empresas devem apontar riscos recorrentes e significativos a partir dos seus serviços e estabelece a necessidade de uma auditoria externa e independente para avaliação da moderação das big techs.

A proposta do governo mantém remuneração pelas plataformas por conteúdo jornalístico, mas amplia essa previsão para conteúdos musicais e audiovisuais. O texto estabelece que se deve garantir "a valorização do conteúdo nacional, regional, local e independente".

O texto do Executivo também mantém uma equiparação das plataformas aos meios de comunicação no que se refere à utilização indevida dos serviços no contexto eleitoral. O ponto já estava na versão do relator na Câmara.