Vida Celular

Tudo sobre os melhores celulares

Nós do Vida Celular e nossos parceiros utilizamos cookies, localStorage e outras tecnologias semelhantes para personalizar conteúdo, anúncios, recursos de mídia social, análise de tráfego e melhorar sua experiência neste site, de acordo com nossos Termos de Uso e Privacidade. Ao continuar navegando, você concorda com estas condições.

Já tem um tempo que inteligência artificial saiu da ficção científica para a vida prática. Mas será que o futuro acabou sendo uma utopia ou distopia? Isso impacta na vida das pessoas para melhor? Nem sempre. O site The Markup fez uma retrospectiva de exemplos negativos de inteligência artificial em 2020.

Publicidade

O Markup é uma organização de mídia americana, sem fins lucrativos, cujo objetivo é focar no jornalismo baseado em dados. Investigam a ética nas grandes instituições e como usam a tecnologia para mudar a sociedade. A retrospectiva sobre inteligência artificial 2020 divulgada por eles detectou inúmeros erros nos algoritmos.

O projeto de algoritmos na AI tenta compreender o raciocínio humano, o que fazemos e como agimos. Na AI uma grande quantidade de dados é alimentada na máquina para reconhecer certos padrões. São dados não estruturados coletados das redes sociais, web, bancos, dispositivos móveis entre outras plataformas.

Porém se não for criteriosamente selecionado, esse conjunto de dados aliado à interação humana mesclados num algoritmo pode demonstrar imprecisão ou mesmo ser  tendencioso e gerar falha de AI.

A máquina preconceituosa

O buscador do Google, por exemplo. conectava as palavras-chave garotas latinas, garotas negras e garotas asiáticas à uma conotação sexual. Se o termo buscado fosse garotas brancas ou garotas ruivas, não ocorria a mesma associação. Após ser informado pelo Markup, o Google bloqueou as sugestões automatizadas, porém o algoritmo de pesquisa do Google deu como resultado na primeira página de pesquisa o nome Markup associado à  palavra ‘pornografia’.

Alguns algoritmos médicos demonstraram preconceito racial. Segundo um artigo publicado no New England Journal of Medicine, referência científica e uma das publicações mais citadas e influentes do mundo. O periódico compilou uma lista parcial de algoritmos ajustados por raça e identificou exemplos de ‘correções’ raciais integradas a ferramentas usadas por médicos para estabelecer quem recebia intervenções cirúrgicas. Foi verificado o potencial da AI de perpetuar ou até mesmo ampliar as desigualdades de saúde baseadas na cor.

Outro erro grave de AI que reitera o preconceito racial é demonstrado por um processo contra a Liga Nacional de Futebol Americano. Há jogadores negros que alegam que a instituição argumenta que esses jogadores têm uma função cognitiva inferior aos jogadores brancos e contesta sua elegibilidade para pagamentos de acordos. Ou seja, fica muito mais difícil receber compensação por demência relacionada a concussões devido à forma como a Liga avalia a função neurocognitiva dos jogadores negros.

Mais um erro do algoritmo. Dessa vez foi num software de reconhecimento facial, que levou à detenção incorreta de Robert Julian-Borchak Williams. Um homem negro que foi acusado e detido em Michigan, devido a uma correspondência incorreta de reconhecimento facial por um crime que não cometeu.  O fato foi noticiado pelo The New York Times em uma matéria que relacionava privacidade, precisão e problemas raciais potencializados pela tecnologia.

Em favor da opressão

A empresa chinesa de tecnologia Huawei também errou no quesito reconhecimento facial. Testaram uma ferramentas que pode escanear rostos em multidões procurando características étnicas com objetivo de dar um alarme às autoridades. Glenn Schloss, porta-voz da Huawei nos EUA, alegou que ferramenta “é simplesmente um teste e ainda não foi aplicada no mundo real”.

Outro exemplo negativo de inteligência artificial em 2020 diz respeito a locatários. É muito comum que a análise do perfil seja feita por um algoritmo de verificação de antecedentes.  Neste caso é AI quem decide sobre o destino do ser humano. Se vai ou não ser aprovado para a locação. O problema é que essas análises costumam apresentar falhas ao confundir identidades, interpretar de maneira errônea algum mal-entendido  com a justiça ou denúncias infundadas. Por isso confiar apenas no algoritmo sem checar a fidedignidade da análise, prejudica injustamente quem teve seu pedido de aluguel negado.

Outro péssimo exemplo é a forma como a AI é usada em questões judiciais em casos de advogados que trabalham com pessoas de baixa renda. Os algoritmos aproveitam dados para tomar ou sugerir decisões, apontar riscos e expor correlações ou inconsistências. Com esse “poder” fazem coisas “absurdas” como decidir quais crianças devem entrar em orfanatos ou determinar o acesso a subsídios de desemprego.

Big Brother no trampo

Grandes empresas têm recorrido a algoritmos para monitorar funcionários. Até a Microsoft se desculpou depois de habilitar um recurso do Microsoft 365 que permitiu aos gerentes monitorar e analisar a produtividade levando em consideração a participação do profissional em chats e ainda o número de emails enviados.

A Whole Foods, uma rede de supermercado de produtos orgânicos e saudáveis, adotou mapas de calor, que auferem o número de reclamações de funcionários e a taxa de desemprego local, para prever quais lojas podem ser impactadas pela ação dos sindicatos. A Whole Foods é propriedade da Amazon, que já possui um ‘modus operandi’ para monitorar o comportamento dos funcionários.

Quem também foi muito prejudicado pela AI foram alunos do Reino Unido. Tudo aconteceu porque o sistema educacional decidiu usar um algoritmo para dar notas com base no desempenho durante a pandemia de Covid-19. O algoritmo permite que os docentes deem uma nota aos alunos e servem de base para dar a nota final sem distorções e classificar os estudantes para a faculdade.

No entanto, muitas notas foram modificadas, inviabilizando a entrada nas instituições de ensino superior. Foram identificados casos  em que a nota indicada pelo professor havia sido “A” e a nota gerada pelo algoritmo “E”, o que pode ter prejudicado cerca de 40% dos alunos.

Empresas e governos preferem recorrer à inteligência artificial em coisas que até ontem eram decididas por (muitos) humanos. É uma medida de economia, que tem custado caro à muita gente. Será mesmo sábio passar essas decisões a máquinas, que tendem a aprender e reproduzir o pior dos humanos?

Via The Markup

Imagem: Gerd Altmany/Pixabay