5 tipos de regulação sobre moderação de conteúdo: entenda os impactos de cada uma

A moderação de conteúdo é uma questão central na governança da internet e existem basicamente cinco tipos de regulação sobre esse tema, cada uma com seus próprios objetivos, benefícios e desafios.


1. Protegendo a Moderação

O primeiro tipo de regulação é a que surgiu como objetivo de proteger a moderação de conteúdo. Exemplos disso incluem o Marco Civil da Internet no Brasil, a Seção 230 do CDA nos EUA e a Diretiva de Comércio Eletrônico na União Europeia. O objetivo aqui é permitir que as plataformas moderem o conteúdo de acordo com suas próprias políticas.

Isso é importante porque as plataformas são heterogêneas, possuem públicos diversos e devem ter o direito de decidir quais tipos de conteúdo desejam hospedar, conforme seu público e termos de uso.

No entanto, este tipo de regulação hoje está ameaçado por projetos de lei que buscam modificar o regime previsto no Marco Civil da Internet, como o PL 2630, que podem colocar esse modelo em perigo. Ou também em discussões judiciais, como no julgamento da constitucionalidade do artigo 19 em tramitação no Supremo Tribunal Federal (STF).

Por outro lado, este tipo de regulamentação por si não é suficiente para garantir que a moderação não seja seletiva ou enviesada, ou seja, que seja justa e aplicada igualmente a todos os tipos de conteúdo. O que nos leva a discutir aprimoramentos regulatórios.


2. Moderação Compulsória

O segundo tipo de regulação propõe obrigar a moderação compulsória de conteúdo. Exemplos incluem o NetzDG na Alemanha e o proposto PL das Fake News no Brasil. O objetivo deste tipo de regulação é repassar o dever de polícia do Estado para as plataformas, obrigando-as a moderar conteúdos específicos conforme determinados tipos penais.

Esse modelo é problemático porque nem todos os crimes são claros e evidentes, cabendo à plataforma definir se o cinza é preto ou branco. Isto pode potencializar vieses de censura privada colocando nas plataformas uma responsabilidade que não deveria ser sua.

O modelo, no entanto, é viável para violações graves, claras e indiscutíveis – “binárias” – como a publicação de fotos íntimas não consentidas, abuso infantil e terrorismo. No entanto, esse modelo deve ser evitado para temas polêmicos e passíveis a interpretação, uma vez que se tende a aumentar a lista de exceções e reduzir a liberdade de expressão.


3. Impedindo a Moderação

O terceiro tipo de regulação busca impedir a moderação de conteúdo. Um exemplo disso foi a MP 1068 do Governo Bolsonaro no Brasil. O objetivo neste modelo é restringir a capacidade das plataformas de definirem quais tipos de conteúdo podem ser publicados. Ela surge buscando combater os vieses de moderação das plataformas.

Essa abordagem, contudo, é problemática porque as plataformas devem ter o direito de aplicar suas políticas e definirem conteúdos conforme suas políticas. Por exemplo, uma rede social de uma comunidade religiosa pode optar por não permitir vídeos de consumo de bebidas alcoólicas, e isto deve ser respeitado. É importante distinguir: moderar não é fazer curadoria ou editar o conteúdo, mas definir uma moldura do que é permitido e até recomendar o que o usuário achar mais interessante, conforme seu perfil.

Este tipo de regulamentação pode ser considerada para salvaguardar casos excepcionalíssimos como a a imunidade parlamentar. Ao se considerar este tipo de regulamentação, contudo, deve-se ser cauteloso para não impedir que as plataformas ajam em momentos críticos, como no combate a conteúdo abusivo.


4. Procedimentalizando a Moderação

O quarto tipo de regulação trata de procedimentalizar a moderação de conteúdo. Uma referência para este tipo de regulamentação são os Princípios de Santa Clara. O objetivo aqui é definir procedimentos claros para revisão de moderação de conteúdo e fornecer transparência sobre as decisões. Isso é importante para garantir o direito à liberdade de expressão, o tratamento justo e regras mais claras de procedimento. No entanto, a transparência excessiva pode abrir brechas para que agentes maliciosos aprendam contornar as regras.


5. Supervisionando a Moderação

O quinto e último tipo de regulação busca supervisionar a moderação de conteúdo. Esse é o modelo adotado em parte pelo Digital Service Act da União Europeia. O objetivo aqui é supervisionar a moderação de conteúdo para garantir conformidade com as normas estabelecidas. A previsão de relatórios de transparência é saudável, embora o grau de granularidade possa burocratizar a internet. Outras medidas, no entanto, podem exagerar a necessidade das plataformas de prestação de contas ao governo, o que pode ser indesejado em determinados contextos sociais e para determinados órgãos. A solução pode ser reforçar a necessidade de autorregulação, elevando os padrões de moderação, sem interferência política.


Conclusão

Em conclusão, proteger a moderação de conteúdo é crucial para garantir a liberdade das plataformas de operarem conforme suas políticas. É fundamental evitar a moderação compulsória e a proibição de moderação, pois ambas podem ter efeitos adversos sobre o ambiente on-line. Implementar procedimentos claros, mas flexíveis, e uma supervisão equilibrada pode ser alcançado através de autorrregulação, garantindo uma internet mais segura e justa para todos.



Quadro Resumo

🌐 Tipos de Regulação sobre Moderação de Conteúdo
Existem basicamente cinco tipos de regulação sobre moderação de conteúdo. Cada tipo tem seus próprios objetivos, benefícios e desafios.

1️⃣ Protegendo a Moderação de Conteúdo
📍 Referência: Marco Civil da Internet (Brasil), Seção 230 do CDA (EUA), Diretiva de Comércio Eletrônico (UE).
📍 Objetivo: Permitir que as plataformas moderem o conteúdo de acordo com suas próprias políticas.
📍 Importância: As plataformas são privadas e devem ter o direito de decidir quais tipos de conteúdo desejam hospedar, conforme seu público.
📍 Risco: Ameaças, como julgamentos no STF e o PL das Fake News, podem colocar esse tipo de regulação em perigo.
📍 Desafio: Garantir que a proteção não seja seletiva (“pau que bate em Chico, deve bater em Francisco”).

2️⃣ Compelindo a Moderação de Conteúdo
📍 Referência: NetzDG (Alemanha), PL das Fake News (Brasil) proposto por Orlando Silva.
📍 Objetivo: Terceirizar a censura para as plataformas, obrigando-as a moderar conteúdos específicos.
📍 Por que é problemático? Terceiriza o poder de política para as plataformas, sob o risco de potencializar vieses (censura privada).
📍 Quando é viável? Violações preto no branco, que não têm espaço para dúvidas, como publicação de fotos íntimas não consentidas, abuso infantil e terrorismo.
📍 Conclusão: Este modelo deve ser evitado, sobretudo para temas polêmicos. A tendência é ir aumentando a lista de exceções e reduzindo a liberdade de expressão.

3️⃣ Impedindo a Moderação de Conteúdo
📍 Referência: MP1068 (Governo Bolsonaro).
📍 Objetivo: Restringir a capacidade das plataformas de definirem quais tipos de conteúdo podem ser publicados.
📍 Por que é problemático? Plataformas devem ter o direito de remover conteúdos conforme suas políticas, como uma rede social religiosa que não queira permitir vídeos de consumo de bebidas alcoólicas.
📍 Quando é viável? Para garantir casos excepcionalíssimo como imunidade parlamentar.
📍 Desafio: Garantir que a aplicação da regulação seja justa para todos edeve-se ser cauteloso para não impedir que as plataformas ajam em momentos críticos, como no combate a conteúdo abusivo.3️⃣ Impedindo a Moderação de Conteúdo
📍 Referência: MP1068 (Governo Bolsonaro).
📍 Objetivo: Restringir a capacidade das plataformas de definirem quais tipos de conteúdo podem ser publicados.
📍 Por que é problemático? Plataformas devem ter o direito de remover conteúdos conforme suas políticas, como uma rede social religiosa que não queira permitir vídeos de consumo de bebidas alcoólicas.
📍 Quando é viável? Para garantir casos excepcionalíssimo como imunidade parlamentar.
📍 Desafio: Deve-se ser cauteloso para não impedir que as plataformas ajam em momentos críticos, como no combate a conteúdo abusivo.

4️⃣ Procedimentalizando a Moderação de Conteúdo
📍 Referência: Princípios de Santa Clara.
📍 Objetivo: Definir procedimentos claros para revisão de moderação de conteúdo e fornecer transparência sobre as decisões.
📍 Por que é importante? Garantir o direito à liberdade de expressão, regras mais claras de procedimento.
📍 Desafio: Transparência excessiva pode ensinar agentes maliciosos a contornar as regras, especialmente em casos de conteúdo abusivo infantil.

5️⃣ Supervisionando a Moderação de Conteúdo
📍 Referência: Modelo adotado pela União Europeia.
📍 Objetivo: Supervisionar a moderação de conteúdo para garantir conformidade.
📍 Perigo: Tende a burocratizar a internet e deixa a internet mais suscetível a ingerências do governo de ocasião.
📍 Solução: Reforçar a necessidade de autorregulação, permitindo um nivelamento setorial, elevando os padrões de moderação.

Conclusão 🎯
Proteger a moderação de conteúdo (Tipo 1) é crucial.
Evitar a compulsão excessiva (Tipo 2) e a proibição de moderação (Tipo 3) é fundamental.
⚠️ Implementar procedimentos claros, mas flexíveis (Tipo 4) e uma supervisão equilibrada (Tipo 5) pode ser alcançado através de auto-regulação, garantindo uma internet mais segura e justa para todos.
⚠️ Evitar temas estranhos à matéria. Regulação da publicidade deve ser tratado em lei que regulamente a publicidade como um todo, e não apenas para as mídias sociais.