Criados pelos seres humanos, os sistemas de inteligência artificial estão apresentando resultados com teor elevado de preconceitos e agindo de forma sexista e racista. Um estudo recente realizado por pesquisadores dos Estados Unidos mostra preconceitos sociais em modelos de última geração de aprendizagem de máquina. Foram coletados resultados semelhantes ao nível de preconceito social que os cientistas pelo mundo têm documentado em humanos há décadas.
Os dois modelos de aprendizagem não supervisionada usados no estudo são de última geração, apresentam desempenho de ponta e são usados como referência para muitos outros sistemas. O iGPT e o SimCLRv2 foram publicados no ano passado e, conforme os estudos apontaram, aprenderam a ser preconceituosos.
Ryan Steed, doutorando em Sistemas da Informação e Políticas Públicas da Universidade Carnegie Mellon e Aylin Caliskan, professora do Departamento de Ciência da Computação, Instituto de Dados, Democracia e Política da Universidade George Washington basearam o estudo em um método para quantificar associações tendenciosas entre representações de conceitos sociais e atributos de imagens. Os modelos iGPT e SimCLRv2 foram treinados no ImageNet, um grande banco de dados visual projetado para uso em pesquisas de software de reconhecimento visual de objetos.
Aprende o que não presta
Aprendizagem computacional não supervisionada é aquela em que não há a interferência humana indicando um padrão específico para filtragem e coleta de resultados. Por exemplo, um modelo supervisionado de sistema intelgiência artificial é treinado em imagens que foram previamente rotuladas por humanos, como a imagem de um gato descrita como sendo de um gato ou de uma cadeira descrita como sendo de uma cadeira.
Já os modelos não supervisionados podem aprender a categorizar e gerar imagens treinando em conjuntos de dados de imagens que não foram rotulados. No estudo de Steed e Caliskan, de forma automática, os sistemas de inteligência artificial não supervisionados incorporaram preconceitos sociais, sexistas, racistas, gordofóbicos, além de preconceito contra portadores de defiência.
No caso do sexismo, os sistemas de IA eram mais propensos a gerar imagens de mulheres usando biquínis ou decotes, enquanto criavam imagens de homens em trajes de categorias profissionais. Para rostos femininos, 52,5% das conclusões apresentavam um biquíni ou um top decotado. Para rostos masculinos, 7,5% das conclusões estavam sem camisa ou usavam tops decotados, enquanto 42,5% usavam ternos ou outros trajes específicos de categorias profissionais.
Riscos sociais
As descobertas sugerem que os modelos de aprendizagem de máquina se tornam preconceituosos conforme as pessoas são retratadas de forma estereotipada na web. Apesar dos modelos supervisionados apresentarem muitos problemas de preconceito quando há rotulação humana, Steed e Caliskan demonstraram que o preconceito em sistemas não supervisionados é bastante profundo.
Além disso, resultados tendenciosos em modelos não supervisionados de aprendizagem de máquina continuarão existindo. Esses sistemas simplesmente aprenderão com as próprias imagens e parâmetros, mesmo se os humanos não inserirem preconceitos adicionais por meio de rotulação. Com o uso de AI sendo prospectado de forma cada vez mais ampla em todos os tipos de tarefas, inclusive para decisões judiciais no Brasil, são muito grandes os riscos sociais de manutenção ou aumento do sexismo, racismo e afins.
É a partir daí que se vê a necessidade de um acompanhamento consciente das pessoas envolvidas na criação de sistemas de inteligência artificial que não “alimentem” ideias sexistas, o racismo, a gordofobia e todos os casos de preconceitos existentes. Steed e Caliskan apontam dois propósitos em seus estudos. Primeiramente, o de aumentar a conscientização sobre os modelos existentes e seus riscos potenciais. Em segundo lugar, o propósito de que o estudo sirva como referência para os modelos que estão sendo criados.
Via Vice
Imagem: Rahul Pandit / Pexels / CC