A questão da saúde mental dos moderadores de conteúdo em plataformas digitais tem ganhado destaque nas últimas semanas, particularmente com as alegações de que a Meta, empresa-mãe do Facebook, causou “traumas potencialmente permanentes” a centenas de moderadores no Quênia. Em um recente caso levantado, mais de 140 moderadores foram diagnosticados com transtorno de estresse pós-traumático (TEPT) e outras condições de saúde mental, revelando a grave natureza do trabalho que realizam e suas consequências. O Dr. Ian Kanyanya, chefe dos serviços de saúde mental no Hospital Nacional Kenyatta, fez esses diagnósticos e os apresentou ao tribunal de relações trabalhistas da cidade de Nairóbi no dia 4 de dezembro.

Os laudos médicos apresentados ao tribunal são parte de um processo judicial que está em andamento contra a Meta e a Samasource Kenya, uma empresa de terceirização contratada para revisar o conteúdo da gigante da tecnologia. Os moderadores de conteúdo desempenham um papel crucial na filtragem de material perturbador que poderia circular nas plataformas, mas muitos deles enfrentam gestão por empresas terceirizadas, frequentemente localizadas em países em desenvolvimento. Critérios de saúde mental têm sido uma preocupação crescente à medida que estudos mostram o impacto negativo que esse tipo de trabalho pode ter no bem-estar mental dos moderadores.

A Meta, em resposta à crescente controvérsia, optou por não comentar os laudos médicos devido ao litígio em andamento; no entanto, enfatizou que leva a saúde mental de seus moderadores a sério e que seus contratos com prestadores de serviços têm expectativas claras em relação ao aconselhamento, formação e remuneração justa. Um porta-voz mencionou que os moderadores podem personalizar sua ferramenta de revisão de conteúdo para que, por exemplo, materiais gráficos apareçam desbotados ou em preto e branco. Por outro lado, a Samasource, que agora opera sob o nome de Sama, não se pronunciou sobre o assunto.

O Dr. Kanyanya, em sua avaliação, revelou que os moderadores à sua disposição enfrentavam “conteúdos extremamente gráficos diariamente”, abrangendo de vídeos de assassinatos brutais a tentativas de suicídio e violência sexual. A realidade dos moderadores é desoladora: dos 144 que se submeteram a avaliações psicológicas, 81% foram classificados como apresentando sintomas severos de TEPT. Esses dados não apenas destacam a magnitude da situação, mas também levantam questões sobre as responsabilidades dos grandes players da tecnologia em relação aos seus trabalhadores mais vulneráveis.

Martha Dark, co-executiva da Foxglove
Martha Dark, co-executiva da Foxglove, fala sobre os traumas enfrentados pelos moderadores de conteúdo.

A classe de ação dos moderadores de conteúdo surge de uma anterior ação judicial movida em 2022 por uma ex-moderadora, que alegava ter sido demitida de maneira injusta após organizar protestos em busca de melhores condições de trabalho. Os moderadores envolvidos no atual litígio trabalharam na Samasource Kenya de 2019 a 2023, tendo sido despedidos em massa no ano passado como represália por levantarem preocupações sobre suas condições financeiras e laborais. Em um dos laudos médicos, um moderador relatou pesadelos frequentes relacionados ao conteúdo gráfico que foi obrigado a revisar, resultando em quebras emocionais constantes, flashbacks vívidos e paranoia. Esse tipo de relato não é isolado e ilustra a dor e o sofrimento que muitos colaboradores enfrentam após seu tempo nestas funções.

Vale ressaltar que essa não é a primeira vez que moderadores de conteúdo buscam a justiça através de processos contra plataformas de redes sociais. Em 2021, uma moderadora do TikTok também processou a plataforma por ter sofrido trauma psicológico em decorrência de seu trabalho, o que representa uma tendência crescente de queixas de trabalhadores da área. A co-executiva da Foxglove, Martha Dark, enfatiza a gravidade da situação: “Moderar o Facebook é trabalho perigoso, até mortal, que causa TEPT vitalício na quase totalidade de quem modera.” Ela menciona que, no Quênia, os testes mostraram que 100% dos moderadores analisados apresentaram indícios de TEPT, e o Facebook tem a responsabilidade pelo trauma potencialmente duradouro de centenas de indivíduos, a maioria deles jovens que acabaram de concluir a educação.

Com essa situação alarmante em evidência, é fundamental que tanto as empresas como a sociedade se conscientizem sobre a importância de proteger aqueles que desempenham papéis cruciais na moderação de conteúdos digitais. É imprescindível exigir melhores condições de trabalho e suporte psicológico para os moderadores, que estão trabalhando nos bastidores para garantir que as plataformas digitais sejam ambientes mais seguros e saudáveis para todos. O futuro da moderação de conteúdo deve se basear em princípios de justiça e respeito pelos direitos dos trabalhadores, caso contrário, as consequências podem ser irreparáveis e permanentes.

Similar Posts

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *