![Aprenda a apagar apps inúteis das operadores, o bloatware Aprenda a apagar apps inúteis das operadores, o bloatware](/wp-content/uploads/2021/02/Bloatware-final-50x50.jpg)
![Google Maps cria interface melhor para mudar de rota Google Maps cria interface melhor para mudar de rota](/wp-content/uploads/2021/02/shutterstock_1064490332-50x50.jpg)
Pesquisadores da Universidade da Virgínia (UVA) colocaram 76 voluntários para fazer um teste de associação implícita. Trata-se de um exame padrão para identificar preconceitos raciais não assumidos, vendo se a pessoa relaciona grupos raciais a sentimentos negativos. Enquanto respondiam as perguntas, os voluntários tiveram suas reações físicas registradas por um aparelho que estavam usando. Depois disso, os cientistas alimentaram uma IA com os dados, e analisaram se essa Inteligência Artificial podia identificar padrões de racismo involuntário.
E deu certo? Bom, a questão não é tão simples assim.
A ideia dos cientistas não era criar um tipo de dispositivo para saber se você ou outra pessoa está sendo racista. O que os pesquisadores podem fazer com essa inteligência artificial é tentar entender melhor como funciona a associação mental entre cor de pele e racismo, e quais são as manifestações físicas disso.
A pesquisa da UVA juntou dois conceitos científicos bem estabelecidos. Primeiro: o teste de associação implícita usa uma série de imagens e palavras. O participante do teste precisa associar rapidamente essas coisas com “pele clara”, “pele escura”, “mau” e “bom”. O teste está disponível no site da Harvard (em inglês). A segunda parte envolve pesquisas que já indicaram que temos respostas aprendidas de ameaça para pessoas diferentes de nós, e que é possível medir fisicamente essas respostas.
No artigo, os pesquisadores escreveram “Nosso aprendizado de máquina e análise estatística mostram que preconceitos implícitos podem ser previstos por sinais físicos com 76% de precisão”. Como o The Next Web apontou, 76% é uma porcentagem baixa para pesquisas com IA e aprendizado de máquina.
No final das contas, com o que eles estão aprendendo com a inteligência artificial, os pesquisadores podem esclarecer processos subconscientes que levam a comportamentos como radicalização ou paranoia racial. Às vezes as pessoas podem ter preconceitos sem achar que estão sendo racistas, e uma pesquisa desse tipo pode ajudar a entender os processos psicológicos por trás disso.