Google promete mudar maneira de trabalhar com AI após demissão de Timnit Gebru - Vida Celular

Vida Celular

Tudo sobre os melhores celulares

Nós do Vida Celular e nossos parceiros utilizamos cookies, localStorage e outras tecnologias semelhantes para personalizar conteúdo, anúncios, recursos de mídia social, análise de tráfego e melhorar sua experiência neste site, de acordo com nossos Termos de Uso e Privacidade. Ao continuar navegando, você concorda com estas condições.

Desde que o Google demitiu a pesquisadora negra de AI (inteligência artificial) Timnit Gebru ano passado, a companhia do Vale do Silício vem encarando acusações de racismo e censura dentro e fora da empresa. Cerca de uma semana atrás, o Google indicou a executiva negra Marian Croak como líder de pesquisa com inteligência artificial, numa tentativa de unificar sua equipe. Agora, segundo um áudio obtido pela Reuters de uma reunião na sexta passada, executivos do Google estão preparando mudanças em como a empresa lida com sua pesquisa de AI, para tentar “recuperar a confiança” de seus funcionários.

publicidade
Questionário de avaliação de risco e regras definidas

Em uma das mudanças, o Google está testando um questionário para avaliar o risco de projetos e ajudar os pesquisadores a navegar por revisões, disse a COO Maggie Johnson na reunião. Além disso, Zoubin Ghahramani, professor da Universidade de Cambridge, foi indicado como diretor de pesquisa sênior, e fica incumbido de esclarecer as regras e regulamentos na pesquisa de AI no caso de preconceitos raciais ou de outras formas.

Na reunião, Ghahramani disse “Precisamos ficar confortáveis com esse desconforto” com pesquisas internas que criticam o Google. Gebru supostamente foi demitida por causa de um artigo que escreveu sobre como a AI do Google poderia acabar prejudicando minorias. Executivos da companhia exigiram que ela derrubasse o artigo ou removesse o nome dos funcionários da empresa envolvidos.

Em um e-mail interno de 8 de fevereiro a que a Reuters também teve acesso, Nicholas Carlini, coautor de um estudo de AI chamado “Extracting Training Data from Large Language Models”, chamou a atenção dos colegas para “edições profundamente insidiosas” feitas pelo departamento legal do Google. “Vamos ser claros aqui”, ele escreveu no e-mail, “Quando nós enquanto acadêmicos escrevemos que temos uma ‘preocupação’ ou encontramos algo ‘preocupante’, e um advogado do Google exige que mudemos isso para parecer melhor, isso é o Grande Irmão se envolvendo”.

Via Business Insider

Imagem: Dylan Carr (Unsplash)