Vida Celular

Tudo sobre os melhores celulares

Nós do Vida Celular e nossos parceiros utilizamos cookies, localStorage e outras tecnologias semelhantes para personalizar conteúdo, anúncios, recursos de mídia social, análise de tráfego e melhorar sua experiência neste site, de acordo com nossos Termos de Uso e Privacidade. Ao continuar navegando, você concorda com estas condições.

Pesquisadores da Universidade da Virgínia (UVA) colocaram 76 voluntários para fazer um teste de associação implícita. Trata-se de um exame padrão para identificar preconceitos raciais não assumidos, vendo se a pessoa relaciona grupos raciais a sentimentos negativos. Enquanto respondiam as perguntas, os voluntários tiveram suas reações físicas registradas por um aparelho que estavam usando. Depois disso, os cientistas alimentaram uma IA com os dados, e analisaram se essa Inteligência Artificial podia identificar padrões de racismo involuntário.

Publicidade

E deu certo? Bom, a questão não é tão simples assim.

A ideia dos cientistas não era criar um tipo de dispositivo para saber se você ou outra pessoa está sendo racista. O que os pesquisadores podem fazer com essa inteligência artificial é tentar entender melhor como funciona a associação mental entre cor de pele e racismo, e quais são as manifestações físicas disso.

Melhoria estatística

A pesquisa da UVA juntou dois conceitos científicos bem estabelecidos. Primeiro: o teste de associação implícita usa uma série de imagens e palavras. O participante do teste precisa associar rapidamente essas coisas com “pele clara”, “pele escura”, “mau” e “bom”. O teste está disponível no site da Harvard (em inglês). A segunda parte envolve pesquisas que já indicaram que temos respostas aprendidas de ameaça para pessoas diferentes de nós, e que é possível medir fisicamente essas respostas.

No artigo, os pesquisadores escreveram “Nosso aprendizado de máquina e análise estatística mostram que preconceitos implícitos podem ser previstos por sinais físicos com 76% de precisão”. Como o The Next Web apontou, 76% é uma porcentagem baixa para pesquisas com IA e aprendizado de máquina.

No final das contas, com o que eles estão aprendendo com a inteligência artificial, os pesquisadores podem esclarecer processos subconscientes que levam a comportamentos como radicalização ou paranoia racial. Às vezes as pessoas podem ter preconceitos sem achar que estão sendo racistas, e uma pesquisa desse tipo pode ajudar a entender os processos psicológicos por trás disso.