STF julga nesta quarta-feira (27/11) o Marco Civil da Internet; saiba o que está em jogo

Corte julga a partir desta quarta três ações que envolvem o MCI e discute futuro de artigo sobre responsabilização das plataformas digitais

O Supremo Tribunal Federal (STF) começa a julgar nesta quarta-feira (27/11) o conjunto de ações que discutem a constitucionalidade do Marco Civil da Internet, especialmente de seu artigo 19. O dispositivo prevê que as plataformas, provedores de internet e sites só podem ser responsabilizados civilmente caso não removam o conteúdo ilícito após ordem judicial.

O Marco Civil da Internet, sancionado em 2014, disciplina o uso da Internet no Brasil. A lei foi concebida para estabelecer deveres e direitos de plataformas digitais, provedores de internet e usuários. No entanto, apesar de avanços significativos, uma década depois, parte da legislação enfrenta questionamentos quanto à responsabilidade de plataformas por conteúdo ilícito de terceiros.

Entre os principais, estão as alegações de que a evolução tecnológica e o crescimento da audiência digital colocam à prova a sua adequação frente ao cenário atual. Nesse contexto, uma década depois, o Supremo discute a eficácia da legislação diante de um cenário tecnológico muito mais complexo.

Ações pautadas

Estão na pauta do STF três ações, o recurso extraordinário 1.037.396, (tema 987) discute a constitucionalidade do artigo 19 do Marco Civil da Internet, de relatoria do ministro Dias Toffoli, o RE 1.057.258 (tema 933), que também trata de moderação de conteúdo, refere-se a fatos anteriores à edição do Marco Civil da Internet, de relatoria do ministro Luiz Fux, e a ADPF 403, de relatoria do ministro Edson Fachin. 

Esta ADPF foi ajuizada por conta das decisões judiciais em diferentes tribunais de Justiça brasileiros que determinaram a suspensão do aplicativo WhatsApp, após a empresa informar que não poderia fornecer os dados requisitados pelos magistrados por conta da segurança da criptografia. Em agosto deste ano, os três relatores pediram ao ministro Luís Roberto Barroso, presidente da Casa, para que as pautasse juntas.

Veja também:  O julgamento das ADIs de sobras de voto em meio ao embate Congresso vs STF

Em setembro, a Advocacia-Geral da União (AGU) pediu ao Supremo para ingressar como amicus curiae nos dois recursos extraordinários que estão em pauta. À época, a AGU defendeu que, “em casos específicos, há a possibilidade de as plataformas digitais serem responsabilizadas, independentemente de haver ordem judicial prévia para a remoção do conteúdo, considerando o dever de precaução que devem ter as empresas, por iniciativa própria ou por provocação do interessado”.

“Não é razoável que empresas que lucram com a disseminação de desinformação permaneçam isentas de responsabilidade legal no que tange à moderação de conteúdo. Essas plataformas desempenham um papel crucial na veiculação de informações corretas e na proteção da sociedade contra falsidades prejudiciais. A ausência de uma obrigação de diligência nesse processo permite que a desinformação se propague de forma descontrolada, comprometendo a confiança pública e causando danos consideráveis”, ressalta trecho do documento enviado ao STF.

O caput do artigo 19 tem a seguinte redação: “Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário”.

Liberdade de expressão

“O artigo 19, hoje, é a regra básica a respeito da responsabilidade das plataformas”, explica o advogado especialista em direito digital Marcelo Crespo, coordenador do curso de direito da ESPM. A norma se relaciona diretamente com a licitude de conteúdo na internet. Crespo, no entanto, considera que o dispositivo tende a ser usado pelas empresas como meio de se esquivar de responsabilizações. “O artigo 19 é bastante conveniente para as empresas e plataformas de tecnologia”, afirma.

Veja também:  STJ amplia delimitação de tese que será analisada sobre PIS/Cofins em vendas na ZFM

Segundo ele, por causa da redação do dispositivo, “existe uma narrativa” de se falar que o artigo 19 quer proteger a liberdade de expressão, embora, para ele, esse não seja exatamente o interesse das empresas com a não responsabilização dos conteúdos.. “As plataformas têm interesses próprios em ganhar dinheiro com alguns conteúdos, inclusive com fake news, porque elas geram engajamento, geram receita”, declara.

Antes do Marco Civil da Internet, diz Crespo, havia uma relação “mais equilibrada” entre as empresas e as vítimas online, já que caso alguém se sentisse ofendido por um conteúdo publicado na internet, não era necessário, inicialmente, recorrer à Justiça. O procedimento comum era realizar uma notificação extrajudicial, exigindo que o conteúdo fosse retirado do ar por causar ofensa.

“Nesse cenário, as plataformas não tinham obrigação legal de remover o material, mas o processo era, de certa forma, mais equilibrado. Por um lado, a plataforma poderia optar por não remover o conteúdo; por outro, ela não gostaria de ter que ficar respondendo várias ações judiciais”, declara.

Um dos principais questionamentos sobre a moderação de conteúdos pelas plataformas é o risco de censura. O advogado Renato Opice Blum, do escritório Opice Blum, rebate as críticas que equiparam a remoção de discursos de ódio à restrição da liberdade de expressão.

“Bloquear discurso de ódio é censura? Aí, vamos para o conceito de censura que está ligado diretamente à liberdade de expressão. […] Quando se tem identificação de discurso de ódio, não é liberdade de expressão, o propósito é outro. Você não quer falar, você quer atacar”, afirmou o advogado.

No entanto, ele reconhece que os algoritmos das plataformas podem cometer erros ao remover conteúdos legítimos. Opice Blum refuta a ideia de que os algoritmos tenham vieses intencionais, os atribuindo a falhas de programação.

Veja também:  A Justiça do Trabalho como instrumento de equilíbrio das relações econômicas e sociais

Apoio ao artigo 19

Por outro lado, estudo conduzido pelo Reglab, think tank especializado em mídia e tecnologia, mostrou que 48% das manifestações coletadas defenderam a manutenção do artigo, argumentando que ele equilibra a liberdade de expressão e responsabilidade das plataformas. O apoio veio de setores diversos, incluindo organizações que tradicionalmente divergem das grandes empresas de tecnologia, como algumas ONGs e instituições acadêmicas. A academia frequentemente adota posições críticas às big techs, especialmente em questões relacionadas à privacidade e regulação de mercado. Entidades da sociedade civil e academia representaram 50% da amostra, com mais da metade desses se manifestando a favor da constitucionalidade (59%).

A análise indica que os argumentos favoráveis à constitucionalidade “apresentaram uma variedade argumentativa maior que outras posições. Embora essa multiplicidade também possa refletir a necessidade de uma defesa mais robusta, isso também pode sugerir que o art. 19 possui um caráter mais estruturante, adaptável e democrático”.

Entre os argumentos mais citados pelos grupos que apoiam a constitucionalidade, estão a preservação da liberdade de expressão e o estímulo à inovação tecnológica. Para empresas, como afirmou a Meta em sua manifestação, o artigo reduz riscos jurídicos e mantém custos operacionais previsíveis. Já a sociedade civil e a academia destacam que o modelo atual protege direitos fundamentais e previne a censura prévia.

“Não é correto afirmar que o artigo 19 serve como escudo para provedores evitarem remoções de conteúdos ilegais. Ele apenas estabelece regras para garantir a proporcionalidade e evitar a censura prévia”, afirmou o Instituto Brasileiro de Defesa do Consumidor (Idec) em manifestação. Para defensores da constitucionalidade, a decisão judicial como pré-requisito para a remoção de conteúdos é apontada como um mecanismo que respeita o devido processo legal e garante a liberdade de expressão.Os processos são: Recurso Extraordinário (RE) 1037396 (Tema 987 da repercussão geral), Recursos Extraordinários (RE) 1057258 (Tema 533 da repercussão geral) e Arguição de Descumprimento de Preceito Fundamental (ADPF) 403.

Fonte: Jota

Leia também: