O National Council for Missing and Exploited Children (NCMEC) publicou na última quarta-feira (24/02) um relatório com números assustadores: em 2020, foram publicadas 20.307.216 imagens contendo abuso sexual infantil no Facebook e Instagram.
O número absurdo foi confirmado pelo grupo Facebook em janeiro deste ano, e equivale a um aumento de 31% em comparação aos resultados de 2019, quando as redes sociais registraram 16 milhões de imagens. Esse resultado de 2020 coloca as plataformas com o maior número de detecção de conteúdo impróprio, quase quatro vezes mais do que o segundo colocado, o Google, com 546,704 fotos. Logo atrás vem o Snapchat (144.095), a Microsoft (96.776), o Twitter (65.062) e o Tiktok (22.692).
A plataforma de Zuckerberg se adiantou explicando que estavam atualizando as mecânicas de detecção de imagens com conteúdo impróprio infantil (sexual ou não), através da junção de contexto entre imagem e legenda. Um representante da empresa alega que “99% dos conteúdos são encontrados e derrubados antes mesmo de chegarem aos moderadores”.
Pandemia agravou cenário
De acordo com o NCMEC, um potencial motivo para o aumento da publicação e distribuição de conteúdo de abuso infantil no Facebook e afins está ligado diretamente ao Covid-19. À princípio, mais tempo confinado fez com que as pessoas passassem a compartilhar mais esse tipo de material. Paralelamente, mais usuários presentes nas redes sociais passaram a denunciar o conteúdo.
As 160 empresas listadas pelo NCMEC – das quais os números desta matéria fazem parte – fornecerão seus dados voluntariamente às autoridades dos Estados Unidos para auxílio no combate ao abuso infantil. As redes sociais, no entanto, estão um passo atrás dos círculos de compartilhamento de material impróprio, uma vez que não há lei local que obrigue as plataformas a procurarem ativamente por conteúdo que contenha pedofilia.
Via Business Insider
Imagem: Thought Catalog / Pexels