El regreso al trabajo presencial en medio de la pandemia de Covid-19 mantiene a muchas personas despiertas por la noche. Ahora, quienes hablaron fueron un grupo de más de 200 moderadores de contenido de Facebook.
Em carta abierta Publicado recientemente en Workplace (el software de comunicaciones internas de la compañía) y dirigido a Mark Zuckerberg, Sheryl Sandberg, Anne Heraty, directora ejecutiva de CPL y Julie Sweet, directora ejecutiva de Accenture, se dice que “la empresa está poniendo en riesgo a los moderadores y a sus familias al exigiendo que regresen al trabajo.
El choque entre moderadores y Facebook por la pandemia llevó a la categoría a denunciar que si bien los trabajadores con certificado médico pueden estar exentos de acudir a la oficina, quienes tienen familiares en grupo de riesgo no tienen la misma protección.
Los moderadores de contenidos de Facebook pidieron a la alta dirección de la empresa, así como a las empresas subcontratadas Accenture y CPL, que tomen medidas urgentes para proteger y desarrollar sus habilidades profesionales. Pero, según el informe, cuando se negaron, publicaron la carta “porque no tenemos otra opción”.
La razón por la que Facebook está presionando para volver al trabajo presencial sería que los algoritmos no han alcanzado el nivel de sofisticación necesario para moderar el contenido automáticamente. Es decir, la moderación basada en Inteligencia Artificial de la compañía está a “años luz” de ser verdaderamente efectiva.
La carta también revela que por sí solo y sin informar al público, Facebook desarrolló un experimento masivo con moderación de contenidos 100% automatizada que, en teoría, filtraría cierto tipo de contenidos como violencia gráfica o abuso infantil, por ejemplo.
Como resultado, la IA filtró por error contenido importante y pasó por alto contenido riesgoso, incluida la violencia. Generalmente son los moderadores de contenido quienes tienen primer acceso a material perturbador, como videos de crímenes violentos. Por tanto, Facebook admite que depende de una combinación de moderadores humanos y sistemas automatizados.

Los moderadores de Facebook piden medidas de protección durante la pandemia – crédito Shutterstock
Mucho antes de la pandemia
La carta también expuso cuestiones previas a la pandemia, como la falta de atención en salud mental, la precariedad a la hora de mantener subcontratos en lugar de tiempo completo, largas jornadas laborales, bajos salarios y traumas psicológicos. Como explica la carta, durante Covid, los moderadores de Facebook que monitorean el contenido en busca de abuso infantil vieron aumentada su carga de trabajo, pero no recibieron “apoyo adicional”.
En un comunicado oficial, el portavoz de Facebook cuestionó parte de las denuncias. “Damos prioridad a su salud y seguridad de los revisores de contenido. Si bien creemos en mantener un diálogo interno abierto, estas discusiones deben ser honestas. La mayoría de los 15 revisores de contenido han estado trabajando desde casa y seguirán haciéndolo durante la pandemia”, respondió.
En una entrevista en marzo, Mark Zuckerberg dijo que a la mayor parte del equipo se le permitiría trabajar desde casa hasta que “las autoridades de salud pública brinden una respuesta suficiente” y que la empresa dependería más de la automatización. Al parecer, esta barrera fue eliminada a mediados de octubre, cuando Facebook informó a los equipos de moderación de contenidos que debían volver a trabajar de forma presencial en las oficinas.
Facebook mantiene actualmente un grupo de moderación de alrededor de 35 trabajadores en todo el mundo. En mayo, la compañía pagó 52 millones de dólares en una demanda colectiva en nombre de revisores que dijeron que habían desarrollado PTSD (síndrome o trastorno de estrés postraumático) como resultado del trabajo.
En señal de reconocimiento de las dificultades del rol, Facebook llegó a un acuerdo legal comprometiéndose a pagar 52 millones de dólares a los trabajadores que desarrollaron síndrome de estrés postraumático como resultado de la actividad.
Vía Engadget.