Powrót do pracy stacjonarnej w trakcie pandemii Covid-19 spędza sen z powiek wielu osobom. Teraz grupa ponad 200 moderatorów treści z Facebook.
Em list otwarty W artykule opublikowanym niedawno na stronie Workplace (wewnętrznego oprogramowania do komunikacji firmy) i skierowanym do Marka Zuckerberga, Sheryl Sandberg, Anne Heraty, dyrektor generalnej CPL, oraz Julie Sweet, dyrektor generalnej Accenture, stwierdzono, że „firma naraża moderatorów i ich rodziny na ryzyko, wymagając od nich powrotu do pracy.
Konflikt między moderatorami a Facebookiem z powodu pandemii sprawił, że kategoria ta potępiła fakt, że chociaż pracownicy posiadający zaświadczenie lekarskie mogą być zwolnieni z obowiązku chodzenia do biura, osoby, których członkowie rodziny znajdują się w grupie ryzyka, nie mają takiej samej ochrony.
Moderatorzy treści na Facebooku zwrócili się do najwyższego kierownictwa firmy, a także do jej outsourcingowych firm Accenture i CPL, o podjęcie pilnych działań w celu ochrony i doskonalenia ich profesjonalistów. Powiedzieli jednak, że biorąc pod uwagę ich odmowę, opublikowali list „ponieważ nie mamy wyboru”.
Powodem, dla którego Facebook naciska na powrót do pracy w cztery oczy, jest to, że jego algorytmy nie osiągnęły niezbędnego poziomu wyrafinowania, aby automatycznie moderować treści. Innymi słowy, moderacja oparta na sztucznej inteligencji firmy jest „lata świetlne” od prawdziwej skuteczności.
Z listu wynika również, że Facebook z własnej inicjatywy i bez informowania opinii publicznej przeprowadził zakrojony na szeroką skalę eksperyment polegający na w 100% zautomatyzowanej moderacji treści, który w teorii miałby filtrować pewne rodzaje treści, takie jak na przykład drastyczna przemoc lub znęcanie się nad dziećmi.
W rezultacie AI błędnie filtruje ważne treści i pomija ryzykowne treści, w tym przemoc. Zazwyczaj moderatorzy treści mają pierwszy dostęp do niepokojących materiałów, takich jak filmy przedstawiające przestępstwa z użyciem przemocy, więc Facebook przyznaje, że polega na połączeniu moderatorów ludzkich i zautomatyzowanych systemów.

Moderatorzy Facebooka wzywają do podjęcia środków ochronnych w czasie pandemii – źródło Shutterstock
Na długo przed pandemią
W liście podkreślono również problemy, które istniały już przed pandemią, w tym brak opieki psychiatrycznej, niepewne zatrudnienie z powodu podwykonawstwa zamiast pracy na pełen etat, długie godziny pracy, niskie wynagrodzenie i traumę psychologiczną. Jak wyjaśniono w liście, podczas pandemii moderatorzy Facebooka, którzy monitorują treści dotyczące znęcania się nad dziećmi, mieli zwiększone obciążenie pracą, ale „nie otrzymali dodatkowego wsparcia”.
W oficjalnym oświadczeniu rzecznik Facebooka zakwestionował niektóre skargi. „Naszym priorytetem jest zdrowie i bezpieczeństwo naszych recenzentów treści. Chociaż wierzymy w utrzymywanie otwartego dialogu wewnętrznego, te dyskusje muszą być szczere. Większość z naszych 15 XNUMX recenzentów treści pracuje z domu i będzie to robić nadal w czasie pandemii” – odparł.
W wywiadzie w marcu Mark Zuckerberg powiedział, że większość jego zespołu będzie mogła pracować z domu, dopóki „władze zdrowia publicznego nie zareagują wystarczająco” i że firma będzie bardziej polegać na automatyzacji. Ta bariera wydawała się być zniesiona w połowie października, kiedy Facebook poinformował swoje zespoły moderujące treści, że będą musieli wrócić do swoich biur.
Facebook utrzymuje obecnie grupę moderacyjną składającą się z około 35 52 pracowników na całym świecie. W maju firma zapłaciła XNUMX miliony dolarów w pozwie zbiorowym w imieniu recenzentów, którzy twierdzili, że rozwinęli u siebie PTSD (zespół stresu pourazowego) w wyniku swojej pracy.
W geście uznania trudności związanych z tą rolą Facebook osiągnęliśmy ugodę sądową zobowiązując się do zapłaty 52 milionów dolarów pracownikom, u których w wyniku tej działalności wystąpił zespół stresu pourazowego.
Przez Engadget.