O dia a dia traumático dos moderadores do Facebook

Passam sete horas por dia a ver aquilo que ninguém deseja receber no feed do Facebook: pedofilia, suicídios, decapitações. Ganham pouco mais do que o salário mínimo. Muitos pedem a demissão e acabam a receber tratamento psiquiátrico. O universo secreto dos moderadores de conteúdo da rede social mais usada no Mundo.

Durante um ano passou sete horas por dia a ver aquilo que ninguém quer receber no feed. Pedofilia, suicídios e decapitações. Muitos desses conteúdos em direto. Pedro R. trabalhou, entre 2015 e 2016, como moderador de conteúdos do Facebook, num escritório nas proximidades de Lisboa, com cerca de 500 pessoas. A violência era tanta que a consequência foi a saída da empresa e o acompanhamento psiquiátrico.

Sentiu-se violento e até receou fazer mal à própria família. A entrada no universo secreto dos moderadores de conteúdo do Facebook começou como qualquer outro trabalho. Pedro R., nome fictício, por razões de segurança e de privacidade, tinha saído há pouco tempo de um trabalho e procurava um novo desafio.

“Comecei a procurar em vários sites e encontrei uma oferta de gestor e editor de conteúdos. Exigiam um bom nível de português, inglês e conhecimentos de italiano e francês. Enviei o meu CV e fui chamado para uma entrevista”, explica Pedro.

No Mercado da Ribeira, em Lisboa, foi submetido a uma avaliação ao conhecimento linguístico e a resposta foi positiva. Tudo dentro da normalidade, como se de um trabalho normal se tratasse, sem nunca mencionar qual era a empresa envolvida. Até que surgiram as primeira questões que o deixaram curioso.

“Durante a entrevista, perguntaram-me o que achava de temas como o Estado Islâmico (EI), pedofilia e pornografia. Fiquei a pensar no que poderia ser, se envolveria a tradução de textos sobre terrorismo ou redes de pedófilia”, conta, ainda longe de imaginar quem estava do outro lado.

O cliente mistério

Os contactos continuaram e numa outra entrevista, já com o cliente, que continuou na obscuridade, sem revelar o que era ou sobre o que trabalhava, Pedro foi submetido a um questionário de cultura geral, com perguntas como quem era o atual Papa, o primeiro-ministro de Espanha ou o responsável pelo governo da Bolívia. “O meu desempenho foi bom e deram-me as boas vindas à empresa. Tive uma semana de folga e informaram-me que depois tinha duas semanas de formação. Tudo sem nunca dizer qual era a empresa.”

Foi só no dia em que se apresentou para o início do curso que ficou a saber que iria começar a trabalhar para o Facebook. Num escritório afastado do centro de Lisboa apresentaram-lhe o projeto que iria enfrentar no ano seguinte: rever conteúdos violentos, sexuais e de terrorismo. Material que vai parar à rede social mais usada no Mundo e que é denunciado pelos utilizadores por ser violento ou perigoso.

Durante duas semanas teve formação sobre o EI, pedófilos e pornografia. “Fiquei a conhecer quem são os principais líderes do Estado Islâmico, os símbolos que usam e até a forma como eles preparam as bombas que depois são usadas nos ataques. Deram-nos informações sobre como identificar uma potencial cena de violação. Foram duas semanas em que aprendi muito.”

O primeiro impacto com a paranóia da segurança

A função de Pedro, que durante as primeiras duas semanas foi acompanhado por uma “shadow” – um funcionário mais experiente na empresa – passava por ignorar a denúncia, se não apresentasse risco para os utilizadores, eliminar, se violasse alguns dos princípios da rede, ou, nos casos mais graves, denunciar o conteúdo às autoridades nacionais. Para isso, havia um manual detalhado com o que deveria fazer em cada caso. “Fiquei principalmente com o mercado da América do Sul, mas tive contacto com muitas outras realidades”, diz.

Se, por um lado, a empresa tentava transmitir uma ideia de abertura para quem lá trabalhava, com janelas abertas e muita luz em todo o escritório, por outro, Pedro começou a dar conta do controlo extremo no que respeita à segurança. Logo no final da formação inicial, o caderno que usou durante as duas semanas do curso foi destruído. Sempre que uma empregada de limpeza entrava na sala, os moderadores tinham que baixar os monitores e era proibida a utilização dos telemóveis. “O grande receio era que alguém tirasse fotografias do interior da sala. Ainda assim, era comum ver funcionários na casa de banho, escondidos, a trocar mensagens”, revela.

A pressão por resultados

Mas não era apenas a privacidade que pautava o dia a dia de quem trabalhava naquele escritório. “Havia uma pressão constante por resultados. Se, ao fim de seis meses, os funcionários tivessem um aproveitamento inferior a 98% das decisões que tomavam eram convidados a sair. Eu consegui manter esse nível, mas era difícil. Daí que exista muita gente a sair e a entrar destas empresas”, recorda Pedro.

O trabalho para o Facebook funcionava em turnos. Das 7 às 16 horas, das 16 às 22 horas e o da noite, “o mais díficil”, das 22 até às 7 horas, com cerca de 1 500 tomadas de decisão diárias. Em troca, pouco mais do que o salário mínimo, 680 euros líquidos, para um trabalho que levou Pedro até às urgências e ao tratamento psiquiátrico.

Violência e terror. O cocktail para a saída

Se os primeiro meses foram simples, com muitos conteúdos de discurso de ódio, na maioria ignorados pelo moderador, “por não representarem um grande risco para os utilizadores”, com a avaliação positiva do trabalho, houve um aumento da responsabilidade e da violência com que era confrontado. “O primeiro vídeo que me deixou perturbado foi o do suicídio de duas irmãs, na Índia, em que uma salta atrás da outra. Como nunca tive curiosidade sobre estes temas, isto deixou-me um choque”, confessa. Esse vídeo foi a ponta de um icebergue que só piorou com o passar do tempo.

O período em que Pedro trabalhou como moderador coincide com a fase de maior propaganda do EI. “Vídeos diários com decapitações em que a violência era a regra”, descreve. Mas o grau de violência aumentou. “Independentemente de tudo, eram vídeos editados, pelas equipas de multimédia do EI. Era tudo muito rápido. O pior veio da América do Sul”.

Nas imagens, que ainda hoje Pedro recorda a custo, um exército sul-americano aparece com o que lhe pareceu ser um guerrilheiro. Os elementos do exército, munidos de facas, começaram a decapitar o guerrilheiro. “A vítima sabia que ia morrer. Dava para ver o terror nos olhos. Ele sabia que não tinha qualquer hipótese de sobreviver”, conta. O pior veio depois.

“Como não lhe conseguiram cortar a cabeça com as facas, desataram à catanada. E eu tive que ver tudo. Até ao fim, para ter a certeza de que ele morreu mesmo. Que não tinha fugido. Eram três da manhã”, lembra Pedro, que ainda chegou a pensar consultar um dos psicólogos que a empresa tem, mas não arriscou “por recear que a informação chegasse a alguém superior”.

Pedro tentou deixar o que viu para trás, mas a escalada de violência com que era confrontado todos os dias só aumentou. Uma outra situação que não esquece é a de um vídeo, na Nigéria, em que um grupo de homens armados entra numa aldeia e chacina quem lá vivia. “Esquartejaram e mataram todas as pessoas que lhes apareciam à frente. Uma violência tribal. Tive que engolir em seco e continuar”, descreve.

“Ele não podia morrer no meu turno”

Dos vídeos denunciados pelos utilizadores, Pedro passou para os vídeos da deep web, “imagens mais violentas a que poucas pessoas têm acesso”, e em pouco tempo estava a trabalhar com os vídeos em direto. “Havia muita coisa sexual e casos relacionados com suicídio. Tinha que estar atento a todos os detalhes. O que rodeava os intervenientes, a cor da roupa que vestiam e se tinham alguma arma na não”, conta.

E foi numa dessas suas vigias que apanhou o vídeo de um rapaz, “com facas na mão”, “vestido de negro num cenário suspeito”. “De repente pareceu-me ver que tinha sangue no pescoço e alertei as autoridades para um eventual suicídio. Ele não podia morrer no meu turno”, explica, sublinhando o sentimento de missão: “No final do dia, sabia que possivelmente tinha evitado uma morte, mas tinha ainda mais a certeza de que o meu tempo na empresa tinha chegado ao fim. Com tudo o que vi, comecei a sentir-me violento a recear fazer mal à minha família”.

Foi às urgência e encaminhado para uma junta médica. O desespero em que estava colocou em segundo plano o contrato de confidencialidade que tinha com a empresa. Seguiu-se a consulta com a psiquiatra, que lhe disse que tinha mesmo que deixar aquele trabalho. Olhando para trás, recorda tudo o que aprendeu e diz-se “um privilegiado” com a informação e com o que sabe do que se passa na rede.

Fonte do Facebook confirmou a existência de escritórios em Lisboa, pela mão da Accenture, e reconhece “o papel vital que os moderadores desempenham para assegurar a segurança da comunidade”. A rede garante que todos os moderadores “têm acesso a psicólogos, cuidados de saúde e são pagos significativamente mais do que o salário mínimo”. Já em maio a rede social, através do blogue oficial, adiantou que iria rever o salários dos moderadores espalhados por todo o mundo.

Mário Machado incita ataque a moderadores
No início do ano, a página de Facebook do Nova Ordem Social esteve em baixo na sequência de várias denúncias de utilizadores. O “Polígrafo” deu conta de que Mário Machado, líder do partido, através dos fóruns privados, publicou fotos de moderadores e prometeu revelar moradas para “fazer chegar o desagrado”.

Imagens violentas podem ter consequências a longo prazo
Para María Picó Pérez, investigadora em Neurociências da Escola de Medicina da Universidade do Minho, “quando se olha para imagens com conteúdo negativo, ativam-se algumas das regiões do cérebro que são ativadas quando a própria pessoa passa por essas situações”. A especialista, que se dedica ao estudo sobre a forma como o cérebro reage a imagens desagradáveis ou negativas, aponta para os riscos que estas imagens podem ter a longo prazo. “Não é só a resposta inicial. Quem passa cerca de oito horas por dia a olhar para estas imagens pode passar por consequências terríveis”, explica. O cérebro está em estado de hiperatividade e a repetição destas imagens deixa a maioria das pessoas em stress, “que pode desencadear estados de depressão ou ansiedade”.

Massacre na Nova Zelândia põe a nu fragilidades do Facebook
O ataque terrorista em Christchurch, na Nova Zelândia, em que morreram 51 pessoas, foi transmitido em direto no Facebook e esteve no ar 17 minutos. O vídeo foi removido depois de um alerta da polícia, mas foi visto duzentas vezes só durante o ataque e motivou várias críticas à rede social. Segundo o portal “The Verge”, a Polícia Metropolitana, no Reino Unido, vai fornecer ao Facebook as imagens das câmaras que usa nos treinos para ajudar os moderadores a identificarem casos suspeitos.