A Comissão de Comunicação e Direito Digital (CCDD) do Senado Federal convocou, para esta segunda-feira (21), uma Audiência Pública sobre divulgação de crimes violentos em ambiente escolar. A Head de Relações Institucionais do Conselho Digital, Roberta Jacarandá, participou da audiência, que foi presidida pelo senador Hamilton Mourão (Republicanos/RS), relator do Projeto de Lei (PL) 2264/23, discutido na sessão.
Segundo Mourão, a cooperação entre as entidades presentes “é essencial para limitar a circulação de material prejudicial sem comprometer a liberdade de expressão”. Para ele, “a troca de informações e o desenvolvimento de tecnologias avançadas são indispensáveis para prevenir novos ataques e para proteger nossos jovens de ameaças crescentes no ambiente digital”.
“A proposta do PL 2264/23 não busca silenciar a imprensa, mas sim, encontrar um equilíbrio que proteja a sociedade e especialmente os ambientes escolares”, reforçou, Mourão, na abertura da Audiência.
Head de Relações Institucionais do Conselho Digital, Roberta começou a fala lembrando que, no Brasil, existem milhões de estudantes com contextos familiares, escolares e sociais diferentes, fazendo-se necessário, portanto, garantir um ambiente seguro a todos os estudantes do país.
Na audiência, Roberta cita que o PL, no seu artigo segundo, traz a responsabilidade daqueles que têm controle sobre o poder editorial para implementar os ajustes e fazer o que seja necessário para alcançar os objetivos elencados no projeto.
“A gente acredita que o cumprimento dessa diretriz pelos produtores de conteúdo é medida válida e suficiente para desincentivar o compartilhamento de notícias que contenham esses elementos prejudiciais. O projeto consegue atacar a divulgação de crimes cometidos com o uso de violência em ambiente escolar ao trazer a responsabilização do agente independente do meio que ele utilize”, disse, a especialista.
Porém, ela também apresentou as problemáticas da proposta de modificar o regime de responsabilidade de provedores de aplicação da internet, para que se tornem subsidiariamente responsáveis pelos danos decorrentes da não remoção desses conteúdos em tempo real. Para a Head, a medida tem um objetivo “louvável”, “mas tem uma redação extremamente abrangente que nos faz discutir a viabilidade técnica dessa medida”.
“Ao exigir que as plataformas saibam em tempo real de cada uma das publicações dos incidentes, o projeto desconsidera alguns desafios técnicos. O primeiro é o volume de conteúdo”, argumentou, informando que no Youtube são geradas 500 horas de conteúdo por minuto e 30 mil minutos de vídeo por segundo. No instagram, são mais de mil publicações por segundo.
“Esse volume torna extremamente desafiador monitorar e moderar todo o conteúdo em tempo real. Principalmente se a gente considerar a redação abrangente que o projeto traz. Essa abrangência torna a implementação deste comando tecnicamente inviável”, afirmou.
A especialista opinou ainda sobre a limitação dos sistemas automatizados e dos sistemas manuais. “Embora as plataformas usem algoritmos de IA [Inteligência Artificial] para identificar conteúdo, elas não são totalmente perfeitas, elas podem falhar em entender o contexto de imagens, de vídeo e texto. E isso pode levar a 2 problemas: conteúdo nocivo escapando de detecção e conteúdo inofensivo sendo removido por engano”, explicou.
De acordo com Roberta, o monitoramento ativo em tempo real de todas as publicações relacionadas a incidentes violentos também é considerado tecnicamente inviável. “A ausência de um sistema de notificação oficial combinado com falta de diretrizes claras do que precisa ser derrubado dificulta também uma ação rápida”, explicou.
Como sugestão aos problemas expostos na Audiência e no PL, Roberta lembrou da iniciativa global do Christchurch Call, em que governos, empresas de tecnologia e sociedade civil se uniram para combater conteúdo extremista e terrorista. O objetivo é equilibrar a liberdade de expressão e a necessidade de segurança, com o desenvolvimento de ferramentas que impeçam a proliferação.
Nesta iniciativa, as empresas se dispuseram a melhorar a detecção de conteúdo, melhorar controles para evitar transmissão de atos terroristas, aprimorar transparência de moderação de conteúdo, compartilhar tecnologias e ferramentas para detecção e remoção de conteúdo, entre outros encaminhamentos visando reduzir o número de crimes divulgados dentro das plataformas.
Outras participações
O professor doutor Gustavo Borges, diretor-executivo do LabSul, palestrou acerca do objetivo do projeto de acrescentar o artigo 21A no Marco Civil da Internet. Porém, segundo ele, a previsão legal proposta como está “cria uma espécie de dever jurídico genérico de atuação proativa na medida em que o artigo 21, que merece uma reflexão, uma revisão, traz a previsão de que sejam adotadas medidas proporcionais e adequadas para restringir a disseminação”.
“Medidas proporcionais e adequadas podem gerar como uma espécie de cláusula aberta, conceito indeterminado, uma dificuldade de interpretação e até mesmo uma espécie de insegurança jurídica na sua aplicação”, continuou.
“Não significa dizer que não seja importante a criação de um protocolo eficaz, ágil a ser debatido. Mas, esses limites não estão claros no texto legal como ele se encontra”, argumentou.
Sobre o veto a liberdade de expressão que o artigo 21A pode gerar, o professor diz: “quando se trata de uma vulneração de um direito humano, uma restrição, uma mitigação, nós estamos falando de liberdade de expressão, quando se pretende suprimir a liberdade de expressão, restringir, vulnerar, eu preciso, entre parênteses, “por um ente privado”, são necessárias observâncias de critérios objetivos e bem claros, pois estamos diante de um direito humano que é de todos nós, que é essencial estrutural”.
Como recomendação, o professor sugeriu a revisão do artigo 21A do texto, o estabelecimento de um protocolo claro e eficiente de comunicação com as plataformas e programas de educação digital.
Após a fala, o senador Mourão disse que “podemos melhorá-lo”, sobre o artigo 21A, “de forma que ele atinja seu objetivo”.
O Diretor de Políticas Públicas do Google Brasil, Marcelo Lacerda, explicou três diretrizes do Google para evitar a divulgação de tais crimes. O primeiro pilar seria a cooperação com autoridades e a sociedade civil para que possa “manter o bem estar das pessoas nos países que operam”. Além disso, ele alegou que “conta com equipes de diversas áreas que são treinadas e atualizadas que trabalham de forma constante para identificar, remover e denunciar esse tipo de material”.
Segundo Marcelo, o Google também conta com o uso de tecnologias de ponta, como classificadores de inteligência artificial e correspondência de hash pra identificar e denunciar material de abuso sexual infantil “de forma rápida e eficiente”. Ele também afirmou que há o desenvolvimento, atualização e aplicação constante das regras de uso e diretrizes das plataformas.
A gerente de Bem-Estar para América Latina da Meta, Taís Niffinegger, ressaltou as ações da Meta visando a proteção do usuário e dos conteúdos das redes, com ferramentas e políticas que não possibilitam divulgação de materiais de abuso sexual, violência, entre outros.
Ela ressaltou a parceria que a empresa tem com a Safernet através do programa educação digital, que leva o assunto a estudantes e professores. Além disso, também tem a parceria com sociedade civil, academia e governos, para aprimorar as políticas de segurança, contando também com o conselho global permanente, que utiliza no aprimoramento da segurança da rede.
Ela ressaltou os padrões de comunidade da Meta, que “tem como objetivo encontrar um equilíbrio adequado entre proporcionar às pessoas um lugar para se expressarem e também promover um ambiente seguro e acolhedor para todos e todas”.
A representante da Associação Brasileira de Emissoras de Rádio e Televisão (Abert), Alice Voronof, também apresentou considerações sobre o projeto, no que tange a divulgação do material pela imprensa. “As restrições previstas no projeto de lei esbarram no sistema constitucional de proteção das liberdades, seja de expressão e, sobretudo, de imprensa. Isso não quer dizer que seja uma divulgação irresponsável”, argumentou, defendendo, em sua fala, a liberdade de expressão.
Ao fim, o senador Mourão disse que vai apresentar um substitutivo levando em consideração as exposições do debate: “Criaremos um substitutivo para que tenhamos um projeto que seja adequado para combater o que é preciso, com técnica legislativa mais correta, e, principalmente, que seja exequível. Temos muitos problemas de colocarmos certos tipos de legislação e, na hora da execução, não tem condição de ser executada, seja pelo encarregado de fazer cumprir a lei, seja por quem precisa julgar ou mesmo por quem deve cumprir”.