O retorno ao trabalho presencial em meio à pandemia da Covid-19 está tirando o sono de muita gente. Agora, quem se manifestou foi um grupo de mais de 200 moderadores de conteúdo do Facebook.
Em carta aberta publicada recentemente no Workplace (software de comunicação interna da empresa) e endereçada a Mark Zuckerberg, Sheryl Sandberg, Anne Heraty, CEO da CPL e Julie Sweet, CEO da Accenture, é dito que “a companhia está colocando os moderadores e suas famílias em risco ao exigir que voltem ao trabalho.
O embate provocado entre moderadores e o Facebook por conta da pandemia, levou a categoria a denunciar que embora trabalhadores com atestado médico possam ser dispensados de ir ao escritório, quem tem familiares em grupo de risco não contam com a mesma proteção.
Os moderadores de conteúdos do Facebook pediram a alta cúpula da companhia bem como das terceirizadas Accenture e CPL, que tomem medidas urgentes de proteção e valorização profissional. Mas, segundo informaram, diante da recusa publicaram a carta “porque não temos escolha”.
O motivo pelo qual o Facebook está pressionando o retorno ao trabalho presencial seria que os algoritmos não atingiram o nível necessário de sofisticação para moderar o conteúdo automaticamente. Ou seja, a moderação baseada em Inteligência Artificial da empresa está a “anos-luz” de ser verdadeiramente eficaz.
A carta revela ainda que por conta própria e sem informar o público, o Facebook desenvolveu um experimento massivo com moderação de conteúdo 100% automatizado que, em tese, filtraria certas variedades de conteúdo como violência gráfica ou abuso infantil, por exemplo.
Como resultado, a IA filtrou erroneamente conteúdos importantes e deixou passar conteúdos arriscados, incluindo violência. Geralmente são os moderadores de conteúdo, que têm o primeiro acesso ao material perturbador, como vídeos de crimes violentos. Por isso, o Facebook admite que depende de uma combinação de moderadores humanos e sistemas automatizados.
Muito antes da pandemia
A carta também expôs questões anteriores à pandemia, como a falta de cuidados com relação à saúde mental, precarização ao manter subcontratos ao vez de tempo integral, longas jornadas de trabalho, baixos salários e trauma psicológico. Como a carta explica, durante o Covid, os moderadores do Facebook que monitoram conteúdos quanto a abuso infantil tiveram sua carga de trabalho aumentada mas não receberam “nenhum apoio adicional”.
Em comunicado oficial o porta-voz do Facebook contestou parte das reclamações. “Priorizamos sua saúde e segurança dos revisores de conteúdo. Embora acreditemos manter um diálogo interno aberto, essas discussões precisam ser honestas. A maioria dos 15 mil revisores de conteúdo têm trabalhado em casa e continuarão durante a pandemia”, rebateu.
Em entrevista concedida em março, Mark Zuckerberg disse que a maior parte da equipe teria permissão para trabalhar em casa até que “as autoridade de saúde pública desse uma resposta suficiente” e que a empresa dependeria mais da automação. Aparentemente, essa barreira foi eliminada em meados de outubro, quando o Facebook informou às equipes de moderação de conteúdo que deveriam voltar a trabalhar nos escritórios de forma presencial.
Atualmente o Facebook mantém um grupo de moderação de cerca de 35 mil trabalhadores pelo mundo. Em maio, a empresa pagou US$ 52 milhões numa ação coletiva em nome dos revisores que disseram ter desenvolvido PTSD (síndrome ou perturbação de stresse pós-traumático) como resultado do trabalho.
Em um sinal de reconhecimento sobre as dificuldades da função, o Facebook fechou um acordo judicial se comprometendo a pagar US$ 52 milhões a trabalhadores que desenvolveram a síndrome do estresse pós-traumático como resultado da atividade.
Via Engadget.