Moderadores de Conteúdo e seu trabalho de proteger a internet

Milhares de moderadores de conteúdo trabalham anonimamente para proteger a internet, analisando e excluindo conteúdos perturbadores e ilegais. A BBC mostra um pouco da rotina desses profissionais
Moderadores de Conteúdo e seu trabalho de proteger a internet
Moderadores de Conteúdo e seu trabalho de proteger a internet Reprodução/Pinterest/@maggiehensien

Um trabalho invisível, mas crucial, é realizado diariamente por milhares de moderadores de conteúdo ao redor do mundo. Essas pessoas enfrentam conteúdos que a maioria de nós prefere nem imaginar: decapitações, abusos, discursos de ódio e assassinatos em massa. Essas imagens e vídeos, muitas vezes ilegais, são enviados para análise e exclusão nas grandes plataformas digitais.

Moderadores
(Foto: reprodução/Pinterest/@theatlantic)

A segurança na internet se tornou uma prioridade global, e as empresas de tecnologia investem em ferramentas automatizadas para identificar materiais nocivos. Contudo, a palavra final ainda é dada por seres humanos, os moderadores, cuja missão é proteger os usuários de conteúdos traumatizantes.

Realidades perturbadoras

A BBC investigou o impacto dessa atividade para a série The Moderators, ouvindo ex-moderadores do leste africano que trabalhavam em redes como TikTok, Facebook e Instagram. Entre os relatos, Mojez, de Nairóbi, descreveu o impacto do trabalho:

“Enquanto os usuários veem vídeos felizes, eu moderava centenas de imagens horríveis diariamente. Absorvi isso para proteger os outros, mas minha saúde mental pagou o preço.”

O impacto psicológico é devastador. Moderadores relatam dificuldades para dormir, pesadelos e até problemas para interagir com seus filhos. Um profissional revelou que um colega tinha ataques de pânico ao ouvir o choro de um bebê.

Orgulho e resistência

Apesar do trauma, muitos desses trabalhadores sentem orgulho de seu papel. Um moderador comparou seu trabalho ao de bombeiros ou paramédicos: “Somos o que impede que atrocidades cheguem ao público. Cada segundo valeu a pena.”

A luta pelo reconhecimento também levou alguns desses profissionais a formarem sindicatos e buscarem melhorias nas condições de trabalho. Empresas como a Meta, responsável pelo Facebook e Instagram, já foram alvo de processos judiciais. Em 2020, a empresa pagou cerca de R$ 300 milhões a moderadores que desenvolveram problemas de saúde mental.

Veja também:  Sabrina Sato enfrenta perda gestacional aos 43 anos

IA: aliada ou ameaça?

Com o avanço da inteligência artificial (IA), empresas buscam reduzir a exposição de humanos a conteúdos traumáticos. Ferramentas como a desenvolvida pela OpenAI, criadora do ChatGPT, já conseguem identificar 90% dos materiais prejudiciais.

Dave Willner, ex-diretor de confiança da OpenAI, defende a tecnologia: “A IA não cansa, não se choca. Ela pode trabalhar indefinidamente.”

Entretanto, especialistas alertam para os riscos. O professor Paul Reilly, da Universidade de Glasgow, aponta que a IA pode cometer excessos, bloqueando a liberdade de expressão ou deixando passar nuances que apenas humanos identificariam: “A moderação humana continua essencial, mas o trabalho é incrivelmente prejudicial para os profissionais.”

Respostas das empresas

Grandes plataformas destacam esforços para melhorar as condições de trabalho. Um porta-voz do TikTok afirmou que a empresa oferece suporte clínico e programas de bem-estar aos moderadores. A Meta informou que exige medidas de apoio emocional e ferramentas que desfocam imagens sensíveis. Já a OpenAI reconheceu a importância dos moderadores humanos no treinamento de suas ferramentas.

Compartilhe este post :

WhatsApp
Facebook
Threads
LinkedIn
Pinterest

Anuncie conosco e veja sua marca alcançar novos patamares.

Últimas notícias