Como as plataformas combatem Material de Abuso Sexual Infantil (CSAM)? Conheça o NCMEC

A proteção de crianças contra abusos na internet é um assunto de extrema importância e complexidade

A sigla CSAM, que significa Material de Abuso Sexual Infantil (Child Sexual Abuse Material), refere-se a qualquer representação visual de menores envolvidos em atividades sexuais explícitas. É crucial entender que o CSAM vai além da mera nudez infantil, abrangendo uma gama mais ampla de material abusivo, que inclui imagens geradas por computador ou desenhos que representam abuso infantil. As plataformas online têm políticas específicas para identificar, distinguir e combater esse tipo de conteúdo, trabalhando ativamente para removê-lo e reportá-lo às autoridades competentes.

O Papel Central do NCMEC

O Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC, sigla em inglês) é uma organização sem fins lucrativos estabelecida nos EUA em 1984. O NCMEC age como um repositório central para denúncias relacionadas à exploração infantil, desempenhando um papel vital no combate ao abuso sexual infantil online. Uma de suas principais ferramentas é o CyberTipline, um portal online para denúncias de abuso sexual infantil criado em 1998, que recebe milhões de denúncias todos os anos.

Denunciando CSAM sem Propagar o Material

A denúncia de CSAM é feita de maneira que não propaga o material abusivo. O NCMEC utiliza uma técnica chamada “função hash” para criar uma assinatura digital única do conteúdo abusivo, permitindo sua identificação sem necessidade de visualização ou distribuição do conteúdo original. Essa assinatura é compartilhada com as plataformas participantes, que a utilizam para identificar e remover o conteúdo abusivo de seus serviços.

A Técnica do Hash: Uma Ferramenta Crucial

O hash é comparável a uma impressão digital digital para dados. Ele é único, irreversível e consistente, o que significa que cada arquivo tem um hash único; não é possível reconstruir o arquivo original a partir do hash, e o mesmo arquivo sempre resultará no mesmo hash quando a função é aplicada. Essa técnica é essencial para verificar a integridade dos dados e é uma ferramenta valiosa na luta contra a disseminação de CSAM.

Hashes são comparados com listas de hash de CSAM conhecido. O sistema busca por uma correspondência do hash sem nunca visualizar o conteúdo dos usuários. (A tecnologia é algorítmica, não manual.)1


Quando e se uma correspondência é encontrada, o CSAM pode ser removido da plataforma e relatado a entidades autorizadas que o encaminham para as autoridades policiais na jurisdição apropriada.

Como as Plataformas Identificam e Combatem o CSAM

Quando as plataformas identificam CSAM, elas tomam várias medidas: removem o material, reportam ao NCMEC através do CyberTipline, e podem tomar ações contra o usuário responsável, como enviar avisos, limitar o acesso ou desativar contas. O objetivo é não apenas remover o conteúdo abusivo mas também prevenir sua disseminação.

O Impacto Global e a Atuação no Brasil

O CyberTipline do NCMEC também é acessível no Brasil, permitindo a denúncia de abuso sexual infantil online. Essas denúncias são encaminhadas às autoridades competentes, incluindo a Polícia Federal no Brasil, para a devida investigação e ação. Em 2023, denúncias resultaram na prisão de diversas pessoas por armazenamento de conteúdo de abuso sexual infantil, demonstrando o impacto direto e significativo dessas denúncias na proteção de crianças.

Para fazer denúncias e incluir CSAM no repositório de hashs do NCMEC, acesse o site https://report.cybertip.org/.

  1. https://www.thorn.org/blog/hashing-detect-child-sex-abuse-imagery/ ↩︎