De acordo com informações divulgadas pelo Financial Times nesta quinta-feira (05/08), a Apple pretende lançar um detector imagens de abuso infantil para o iOS. Chamado de neuralMatch, o sistema entraria no ar em primeiro lugar nos Estados Unidos, com o objetivo de ajudar as autoridades judiciais em investigações de crimes contra crianças e adolescentes.
Compondo o algoritmo do detector, a Apple usou 200 mil imagens de abuso registradas no National Center for Missing & Exploited Children (Centro Nacional para Crianças Desaparecidas e Exploradas, em português), que serão fichadas e comparadas com outras fotos conhecidas desse tipo de crime. Com base nisso, qualquer imagem enviada ao iCloud nos EUA terá um marcador de segurança verificando o nível de suspeição. Se um determinado número de imagens for marcado como suspeito na conta de qualquer usuário, a Apple vai conceder a permissão para descriptografá-las e, se forem ilegais, encaminhadas às autoridades.
Vale observar que a Apple já verifica arquivos no iCloud que contenham imagens de abuso contra crianças e adolescentes. No caso do neuralMatch, no entanto, o sistema funcionaria de forma universal, isto é, permitindo o acesso da matriz a conteúdo privado dos usuários do iOS.
Risco autoritário
O criptógrafo e professor Matthew Green, do Instituto de Segurança Johns Hopkins, é um dos que vê a medida da Apple com desconfiança. Green, que já trabalhou com a empresa americana para corrigir um bug de segurança no Mensagens, teme que o neuralMatch abra precedente para a eclosão de um pesado sistema de vigilância sobre o tráfego de dados dos usuários.
“A possibilidade de adicionar sistemas de rastreamento como esse em mensageiros com criptografia de ponta a ponta tem sido a grande ‘pergunta’ das autoridades policiais em todo o mundo”, diz em seu perfil no Twitter. “É uma ferramenta que pode ser uma bênção para encontrar pornografia infantil nos telefones. Mas imagine como isso pode ser utilizado nas mãos de um governo autoritário”, questiona.
Embora não tenha se pronunciado acerca do projeto do detector imagens de abuso infantil, a Apple deve divulgar informações ainda nesta semana, segundo confirmaram, ao Financial Times, dois pesquisadores de segurança que se reuniram recentemente com executivos da companhia.
Via Apple Insider e The Verge
Imagem: Trym Nielsen/Unsplash/CC