Um trabalho invisível, mas crucial, é realizado diariamente por milhares de moderadores de conteúdo ao redor do mundo. Essas pessoas enfrentam conteúdos que a maioria de nós prefere nem imaginar: decapitações, abusos, discursos de ódio e assassinatos em massa. Essas imagens e vídeos, muitas vezes ilegais, são enviados para análise e exclusão nas grandes plataformas digitais.
A segurança na internet se tornou uma prioridade global, e as empresas de tecnologia investem em ferramentas automatizadas para identificar materiais nocivos. Contudo, a palavra final ainda é dada por seres humanos, os moderadores, cuja missão é proteger os usuários de conteúdos traumatizantes.
Realidades perturbadoras
A BBC investigou o impacto dessa atividade para a série The Moderators, ouvindo ex-moderadores do leste africano que trabalhavam em redes como TikTok, Facebook e Instagram. Entre os relatos, Mojez, de Nairóbi, descreveu o impacto do trabalho:
“Enquanto os usuários veem vídeos felizes, eu moderava centenas de imagens horríveis diariamente. Absorvi isso para proteger os outros, mas minha saúde mental pagou o preço.”
O impacto psicológico é devastador. Moderadores relatam dificuldades para dormir, pesadelos e até problemas para interagir com seus filhos. Um profissional revelou que um colega tinha ataques de pânico ao ouvir o choro de um bebê.
Orgulho e resistência
Apesar do trauma, muitos desses trabalhadores sentem orgulho de seu papel. Um moderador comparou seu trabalho ao de bombeiros ou paramédicos: “Somos o que impede que atrocidades cheguem ao público. Cada segundo valeu a pena.”
A luta pelo reconhecimento também levou alguns desses profissionais a formarem sindicatos e buscarem melhorias nas condições de trabalho. Empresas como a Meta, responsável pelo Facebook e Instagram, já foram alvo de processos judiciais. Em 2020, a empresa pagou cerca de R$ 300 milhões a moderadores que desenvolveram problemas de saúde mental.
IA: aliada ou ameaça?
Com o avanço da inteligência artificial (IA), empresas buscam reduzir a exposição de humanos a conteúdos traumáticos. Ferramentas como a desenvolvida pela OpenAI, criadora do ChatGPT, já conseguem identificar 90% dos materiais prejudiciais.
Dave Willner, ex-diretor de confiança da OpenAI, defende a tecnologia: “A IA não cansa, não se choca. Ela pode trabalhar indefinidamente.”
Entretanto, especialistas alertam para os riscos. O professor Paul Reilly, da Universidade de Glasgow, aponta que a IA pode cometer excessos, bloqueando a liberdade de expressão ou deixando passar nuances que apenas humanos identificariam: “A moderação humana continua essencial, mas o trabalho é incrivelmente prejudicial para os profissionais.”
Respostas das empresas
Grandes plataformas destacam esforços para melhorar as condições de trabalho. Um porta-voz do TikTok afirmou que a empresa oferece suporte clínico e programas de bem-estar aos moderadores. A Meta informou que exige medidas de apoio emocional e ferramentas que desfocam imagens sensíveis. Já a OpenAI reconheceu a importância dos moderadores humanos no treinamento de suas ferramentas.