Moderadores do Facebook dizem que a empresa está pedindo a eles que arrisquem suas vidas

Por Redação Categoria Nerd
4 Min Read

Centenas de moderadores de conteúdo do Facebook assinaram uma carta aberta, direcionada a Mark Zuckerberg, dizendo que a empresa está colocando eles e suas famílias em risco ao pedir-lhes que voltem ao trabalho presencial em meio à pandemia de coronavírus.

Na carta, os moderadores também mencionam várias questões anteriores, incluindo a falta de cuidados com a saúde mental dos moderadores em face da natureza complicada de seus trabalhos. Eles então afirmam que seu trabalho, que psicologicamente já era “o mais brutal do Facebook”, agora também envolve entrar em perigo em meio a pandemia.

De acordo com a carta, o motivo pelo qual o Facebook está pressionando os moderadores a voltar ao escritório é porque a moderação feita com inteligência artificial da empresa “não estava à altura do serviço”. Como eles explicam, sem informar o público, o Facebook empreendeu um experimento massivo em moderação de conteúdo altamente automatizada.

Mas parece que a IA do Facebook estava a “anos” de ser verdadeiramente eficaz na moderação de conteúdo, pois “um discurso importante foi varrido para a boca do filtro do Facebook – e conteúdo arriscado, como a automutilação, continuou ativo”, diz a carta. “A lição é clara. Os algoritmos do Facebook estão a anos de atingir o nível necessário de sofisticação para moderar o conteúdo automaticamente”.

Mesmo que a equipe do Facebook esteja trabalhando de casa, muitos moderadores de conteúdo que são empregados pela Accenture e CPL, foram forçados a retornar ao trabalho presencial, um deles testou positivo para Covid-19 alguns dias após retornar ao trabalho, informou o The Intercept.

Eles dizem que os moderadores que enfrentam um alto risco de doenças graves causadas pelo vírus tenham sido isentos de ter de trabalhar no local de trabalho, mas os trabalhadores que vivem com parentes vulneráveis ​​não.

Um porta-voz do Facebook alegou ao Engadget que a empresa supostamente priorizaria “a saúde e segurança” dos seus funcionários. “Agradecemos o valioso trabalho dos revisores de conteúdo e priorizamos sua saúde e segurança”, alega o porta-voz da empresa. “Embora acreditemos em ter um diálogo interno aberto, essas discussões precisam ser honestas. A maioria desses 15.000 revisores de conteúdo global tem trabalhado em casa e continuará a fazê-lo durante a pandemia”.

O Facebook disse em março que planeja expandir o uso de sistemas automatizados para detectar e remover conteúdo que tem uma probabilidade extremamente alta de violar seus padrões, enquanto os moderadores humanos irão se concentrar em um “trabalho mais impactante”.

Embora a empresa tenha repetidamente elogiado os ganhos obtidos por seus sistemas de IA, a confiança na moderação automatizada resultou em uma série de problemas. Enquanto isso, o Facebook disse que depende de uma combinação de moderadores humanos e sistemas automatizados.

Ao mesmo tempo, os trabalhadores contratados que fazem a maior parte da moderação de conteúdo da rede social há muito tempo afirmam que a empresa não faz o suficiente para protegê-los. Moderadores, muitos dos quais passam seus dias revisando informações incorretas, violência gráfica e outros conteúdos chocantes, criticaram a empresa por baixos salários e cuidados de saúde mental inadequados. 

Em maio deste ano, o Facebook pagou US$ 52 milhões para acabar com uma ação coletiva em nome de moderadores que desenvolveram estresse pós-traumático como resultado de seu trabalho. 

Compartilhe