O julgamento do artigo 19 do Marco Civil da Internet pelo Supremo Tribunal Federal (STF), marcado para 27 de novembro, está no epicentro de um debate crucial sobre a liberdade de expressão e a responsabilidade das plataformas digitais. O artigo atual condiciona a responsabilização das plataformas por conteúdos postados por terceiros à existência de uma ordem judicial específica para remoção. Entretanto, com o julgamento, as plataformas podem vir a ser responsabilizadas mesmo sem uma manifestação judicial. Recentemente, essa questão foi abordada por três artigos na mídia (Migalhas, Folha e Poder360), com discussões profundas e críticas.
Gustavo Borges, Diretor-Executivo do LabSul e professor de direitos humanos e novas tecnologias, adverte no Migalhas que “uma eventual decisão que siga o caminho da declaração de inconstitucionalidade do art. 19 poderá atribuir às plataformas um encargo e uma responsabilidade do exercício de um controle preventivo e preliminar sobre a legalidade, ou ilegalidade, de conteúdos postados por terceiros, o que poderá impactar sobremaneira todo o ecossistema digital do país.” Ele destaca que, atualmente, o modelo protege as plataformas de uma sobrecarga de responsabilidade, já que a remoção de conteúdos depende de ordem judicial. Para Borges, “o teste tripartite, frequentemente negligenciado no Brasil, deveria ser aplicado em casos que envolvem restrições à liberdade de expressão”.
O teste tripartite é um padrão internacionalmente utilizado para avaliar se uma restrição à liberdade de expressão é legítima, proporcional e necessária. Ele é previsto em tratados internacionais de direitos humanos, como o Pacto Internacional sobre os Direitos Civis e Políticos (PIDCP), que o menciona no artigo 19, parágrafo terceiro. O teste é composto por três critérios que precisam ser atendidos simultaneamente para que uma limitação à liberdade de expressão seja considerada válida:
- Objetivo Legítimo: A restrição à liberdade de expressão deve ser voltada para proteger objetivos considerados legítimos e relevantes em uma sociedade democrática. Esses objetivos incluem, entre outros, proteger os direitos e a reputação de outras pessoas, a segurança nacional, a ordem pública, a saúde pública ou a moral pública. Se uma limitação não se destina a atender a um desses objetivos, ela não pode ser considerada legítima.
- Legalidade: A restrição deve estar expressamente prevista em lei. Isso significa que a norma que impõe a limitação precisa ser clara, específica e formulada de forma a permitir que os cidadãos compreendam com precisão quais atos são proibidos ou limitados. A exigência de legalidade visa garantir que não haja arbitrariedade na aplicação de restrições.
- Necessidade e Proporcionalidade: A limitação à liberdade de expressão deve ser necessária para atingir o objetivo legítimo e não ir além do estritamente necessário para alcançar esse fim. Isso implica que a medida restritiva deve ser a menos invasiva possível, e que os benefícios gerados pela limitação superem os prejuízos causados à liberdade de expressão.
O teste tripartite é amplamente utilizado por tribunais internacionais de direitos humanos e é um instrumento essencial para avaliar a legitimidade de restrições em casos que envolvem conflitos entre direitos fundamentais, garantindo que qualquer limitação seja feita com cautela e justificação adequada.
Francisco Brito Cruz, diretor do InternetLab, argumenta em seu artigo na Folha que o Marco Civil “parte do pressuposto de que é a Justiça que deve decidir o que é ilícito na expressão, não os provedores.” Ele explica que essa configuração “protege pessoas que usam a internet para se expressar à medida que assegura que as plataformas não serão incentivadas a exercer uma filtragem prévia ou a remover a partir de simples denúncia quando calculem um risco financeiro por manter conteúdos mais polêmicos, porém legítimos.” No entanto, Brito Cruz observa que “a responsabilidade de provedores entrou na mira do Supremo em 2017 a partir de um caso que envolve a proteção da intimidade e da honra, mas o assunto ganhou outra atenção nos últimos cinco anos.” Segundo ele, os recentes desafios decorrentes de operações de desinformação, ataques a instituições democráticas e violência contra grupos marginalizados mostram que uma nova interpretação das leis que regulam o ambiente digital é necessária. Para Francisco, “a esperança era que o Congresso pudesse aprovar novas camadas de regulação, especialmente para supervisionar a gerência dessas novas ‘praças públicas’ digitais.“
André Marsiglia, advogado especializado em liberdade de expressão, oferece uma crítica contundente no Poder360 sobre a potencial transferência de poder para plataformas estrangeiras. “Não deixa de ser curioso que o X foi suspenso sob o argumento de preservarmos nossa soberania, mas as Cortes entregarão a essas mesmas plataformas estrangeiras a função de fazer o trabalho de legislador e juiz a respeito da desinformação,” aponta Marsiglia. Ele alerta que delegar essa responsabilidade a empresas privadas coloca em risco a liberdade de expressão, permitindo que decisões unilaterais sejam tomadas por entidades com interesses próprios e baseadas em normas ambíguas. Para ele, “a decisão do STF poderá, na prática, recortar e colar elementos do Projeto de Lei das Fake News, mas com um tom mais agressivo e censório.”
Essas análises convergem para um ponto central: a decisão do STF sobre o artigo 19 será um divisor de águas na regulação do ambiente digital no Brasil, com potenciais consequências para a liberdade de expressão e a dinâmica das plataformas digitais. A forma como a Justiça lidará com essa questão poderá definir os limites da responsabilidade das plataformas e o equilíbrio entre proteger direitos e evitar abusos, em um contexto onde a regulação precisa ser precisa e proporcional para não comprometer a própria essência do debate democrático.