O Conselho Digital participou nesta terça-feira (14) de audiência pública sobre proteção de crianças e adolescentes na web, na Comissão de Comunicação e Direito Digital do Senado Federal, que debateu o PL 2338. Representou o Conselho Digital do Brasil a Head de Relações Institucionais, Roberta Jacarandá.
Roberta apresentou 5 pontos no PL 2338 que merecem atenção especial. Em primeiro lugar, a Head ressaltou que é preciso diferenciar criança de adolescente do Projeto de Lei. Segundo ela, cada um tem suas particularidades e necessidades de cuidado e supervisão. Ainda, é preciso oferecer para os pais ferramentas efetivas, adaptáveis, flexíveis e respeitando a realidade de cada família.
“É importante oferecer para os pais ferramentas efetivas, mas ao mesmo tempo você precisa trazer um equilíbrio para que esses controles não sejam excessivos, no sentido de que não traga aos pais uma falsa sensação de que uma vez que você aperta aquele botão o problema está resolvido, e nem traz para as próprias crianças e adolescentes um incentivo para que eles tentem contornar esses controles. Então eu acho que essas ferramentas precisam ser adaptáveis, flexíveis e respeitando a realidade de cada família”, ressaltou Roberta, na comissão. Sobre as ferramentas, a Head lembrou que cada tipo de aplicativo tem suas particularidades e, portanto, às vezes a mesma ferramenta não é bem sucedida em todas as plataformas.
Ela também sugeriu mudanças nas regras de moderação de conteúdo. O artigo 21 do PL 2338 diz que as plataformas devem proceder a retirada de conteúdo que viola direitos de crianças e adolescentes assim que forem comunicados do caráter ofensivo da publicação independente de ordem judicial. Porém, há a preocupação pela inexistência de regras sobre quem pode denunciar, além da inexistência um processo de averiguação dessa denúncia.
“Se a gente for falar um pouco de caráter ofensivo, acho que a mesma premissa vale. O que é ofensivo pra mim é perfeitamente aceitável para meu vizinho. Então, a gente precisa ponderar o que é esse caráter ofensivo, como a gente averigua a denúncia para fazer essa remoção”, pontuou, a especialista.
O próximo tópico colocado por Roberta foi o que trata da notificação de conteúdo sobre exploração sexual infantil. Uma sugestão, dentro da necessidade de notificação e reporte sobre esses conteúdos de exploração ou que ferem direitos de crianças e adolescentes, é que esse reporte possa ser feito de forma direta e indireta . No caso, há um protocolo que as plataformas adotam de informar o NCMEC, que tem o trabalho mundial de receber esses reportes e comunicar às autoridades locais sobre os casos de exploração e ferimento aos direitos da criança. Dessa forma, no contexto do Brasil, evitaria um conflito com o artigo 241-B do Estatuto da Criança e Adolescente (ECA), que trata sobre o armazenamento desse conteúdo. “Se puder continuar fazendo esse reporte pro NCMEC que tem um trabalho bastante efetivo seria o ideal”, comentou.
Ainda dentro do tópico de notificação de conteúdo sobre exploração sexual infantil, Roberta lembrou que o PL 2338 cita que deve existir a notificação de todo conteúdo a respeito de violação dos direitos das crianças e adolescentes às autoridades listadas.
“Como equilibrar isso para que não haja uma perda de efetividade da ação dessas autoridades. Porque, por dia, são mais de 1 milhão de conteúdos removidos pela plataforma. Então, como que passa esse conteúdo pras autoridades de forma que eles consigam ou tenham a infraestrutura para filtrar. Essa notificação ser efetiva também é uma preocupação nossa”, pontuou.
O quarto ponto levantado por Roberta é a proibição do perfilamento, prevista no PL 2338. O perfilamento, no caso das crianças e adolescentes, coleta somente a idade e localização, para que estas não recebam conteúdo inapropriado para a idade, e tenham acesso a informações educativas e de saúde, por exemplo, na sua região. “Se você proíbe o perfilamento, ele passa a receber o conteúdo baseado na ordem cronológica que esse conteúdo chega. Então não há uma filtragem para dizer o que vai chegar”, colocou.
Além disso, ela ressaltou que há alguns termos dentro do projeto que merecem atenção especial. Por exemplo, quando se fala de ‘serviços de tecnologia que possam ser utilizados por crianças’. A Head questionou como definir o que pode ou não ser utilizado, entre outros termos.
“A gente precisa lembrar que a tecnologia tem uma força dinâmica e inovadora muito grande. Então as legislações precisam abrir espaço para que essa tecnologia se acomode e a legislação não fique datada em tão pouco tempo. Então a gente precisa ver como a gente faz isso dentro do projeto para a gente acomodar o que vai vir de novo e isso aqui continuar sendo aplicado para o novo”, finalizou, a especialista e Head do Conselho Digital.
Outros especialistas
Além da Roberta, outros especialistas tiveram fala na audiência pública no Senado Federal. O professor Doutor Gustavo Silveira Borges, do Laboratório de Direitos Humanos e Novas Tecnologias do Sul Global, comentou que o texto precisa de revisões e pode apresentar inseguranças jurídicas da forma em que se apresenta. “Temos algumas preocupações que podem, no meu ponto de vista, gerar alguns efeitos indesejados ou até mesmo criar um ambiente de insegurança jurídica”.
Ele concordou com Roberta sobre a necessidade de diferenciar crianças e adolescentes na nova legislação. “Quando tenta agrupar o mesmo tratamento jurídico topograficamente em relação a crianças e adolescentes, no meu ponto de vista, se levar em conta as diferenças e posições de diferentes graus de riscos, a própria vulnerabilidade, a autonomia, a autodeterminação, é necessário uma revisão justamente para tornar a legislação mais eficaz”, pontuou.
O doutor também questionou o artigo 5 do Projeto, que trata do Dever de Cuidado. “O Dever de Cuidado do artigo, 5 ele deve ser explicitado, me parece uma cláusula aberta, um conceito jurídico indeterminado, uma linguagem que pode gerar imprecisões. Nós temos aí uma série de trabalhos junto ao Poder Judiciário e nós verificamos, cada vez mais nas pesquisas, que é necessário uma previsão nessas questões mais específicas evitando lacunas e imprecisões que podem gerar diversas esferas e consequências”, afirmou.
O pesquisador Rafael Leite, associado a uma série de centros de estudos e think thanks, entre eles o Conselho Digital, apresentou a pesquisa avançada chamada “Muito além do tempo de tela”, que trata dos efeitos dos usos das redes sociais em crianças e adolescentes. Em sua fala, ele ressaltou que há pesquisas que indicam o uso positivo e negativo das redes sociais. Mas, o que a literatura fala, em suma, é que os resultados são mistos. É difícil estabelecer a causalidade dos problemas referentes ao uso das redes, pois diversos fatores afetam.
“Existem efeitos negativos e positivos do uso de redes sociais na saúde mental de jovens e adolescentes. Alguns estudos apontam para os potenciais usos detrimentais do uso excessivo de redes sociais com efeitos como depressão e ansiedade. Mas também existem estudos que apontam para efeitos positivos do uso de redes sociais, especialmente interações positivas por jovens e adolescentes”, pontuou.
A partir deste contexto, o especialista identificou que existem 15 fatores que modulam o efeito das redes sociais na saúde mental dos jovens e adolescentes. Seriam esses: qualidade do sono, o tipo de suporte social online, frequência de uso, exposição a conteúdos sensíveis, autoeficácia, ambiente familiar, resiliência individual, idade, gênero, orientação sexual, diversidade de atividades, hábitos alimentares e substâncias, experiências com bullying, e prevenção e apoio integrado.
Na ocasião, Lucas Borges de Carvalho, que trabalha na Autoridade Nacional de Proteção de Dados (ANPD), também fez fala e pontuou que a Lei Geral de Proteção de Dados (LGPD) já traz algumas previsões tuteladas no Projeto.
“A discussão sobre perfilamento e publicidade, é aquela classificação das pessoas a partir dos seus dados pessoais, a partir às vezes até das interações que são feitas em redes sociais. Por exemplo, você pode criar um perfil sobre a pessoa e direcionar publicidade, encaixar em determinados grupos. Esse é um tema muito relevante para a área de proteção de dados. A própria LGPD já se refere a isso”, citou, como exemplo.