Envío de documentación desde un ordenador / Imagen de archivo

Envío de documentación desde un ordenador / Imagen de archivo

El pulso de la ciudad

Al menos 10 intentos de suicidio en la plantilla de Facebook Barcelona por revisar contenido extremo

Más de 400 empleados han enfermado debido a las atrocidades que revisan: desde vídeos de asesinatos hasta violaciones y suicidios en directo

6 octubre, 2023 13:43

Noticias relacionadas

Al menos 10 intentos de suicidio entre los trabajadores de Facebook Barcelona por revisar contenido extremo. La plantilla de la empresa en la capital catalana atraviesa una oleada de bajas por traumas psicológicos por las atrocidades que revisan. En concreto, más de 400 empleados que se dedican a moderar contenido en la red social se han ausentado de sus puestos por exponerse a vídeos e imágenes de asesinatos, desmembraciones, violaciones, suicidios en directo, o incluso niños siendo abusados a diario.

Los afectados no solo tenían que cargar con esta función, sino que el trabajo se les complicaba al tener que cumplir con una "tasa de acierto" alta, que asciende hasta el 98%. Esto significa que sus decisiones tenían que coincidir tanto con las de otros moderadores como la del auditor superior. Si la tasa de acierto bajaba, podían, incluso, ser despedidos. La información la revela este viernes, 6 de octubre, La Vanguardia, que ha entrevistado a varios trabajadores de la empresa CCC Barcelona Digital Services --subcontratada por Meta para moderar los contenidos de Facebook e Instagram--. 

TESTIMONIOS DE LOS EMPLEADOS

Uno de los miembros de la compañía entrevistado explica que no puede olvidar una de las salvajes escenas que tuvo que revisar. En el vídeo, un hombre, alcoholizado, asesinaba a su hijo delante de la cámara --un bebé de meses-- clavándole un cuchillo en el pecho: "lo abrió, le arrancó el corazón y lo mordió", según relata el empleado. Otro de ellos explica que vio una buena oportunidad laboral, ya que, no pedían ninguna formación, pagaban un buen sueldo y "suponía poner un pie en Facebook". No obstante, asegura que nadie le explicó la dureza de las imágenes que tendría que revisar. Dos meses después, lo ascendieron a "un grupo de alta prioridad", un equipo que se encargaba de revisar contenido más salvaje. Según explica, se tuvo que exponer a "asesinatos brutales, desmembraciones, torturas, violaciones, suicidios en directo y niños siendo abusados". "Lo peor de los humanos", añade.

El trabajador decidió cambiar de puesto pero le rechazaron la solicitud: fue entonces cuando empezaron los ataques de pánico después de ver un suicidio en directo. Después de 5 años sigue con medicación y tratamiento psicológico. Otra chica explica que de pequeña sufrió bullying que la llevó a tener una depresión. La empresa nunca le preguntó su historial a la hora de contratarla y la colocaron en la "cola de suicidios en directo". Entonces, recayó en la depresión y tuvo otros dos intentos de suicidio.

CONDICIONES QUE IMPONE LA EMPRESA

Además, La Vanguardia relata las condiciones que impone la empresa. Según explican, los empleados están sometidos a extremas cláusulas de confidencialidad: ni sus parejas pueden saber que, por encima del grupo canadiense Telus Internationals, trabajan para Meta. Además, está prohibido entrar con el móvil en la sala de visionado, y si no se cumple, se sanciona con dos semanas sin sueldo. Cuando entran en la empresa --situada en la torre Glòries-- pasan dos veces por un detector de metales y de huella dactilar.

FALTA DE ATENCIÓN PSICOLÓGICA 

Todos los moderadores entrevistados consideran que la atención psicológica que ofrece la empresa es insuficiente por la gravedad del contenido que tienen que revisar. Uno de ellos relata que "tenemos 40 minutos a la semana de lo que llaman wellness", es decir, que pueden hablar con alguien, a pesar de que apunta que si manifiestas que estás mal, te instan a buscar otro trabajo.

La empresa está acostumbrada al hecho de que la gente que no los soporta se coja la baja y después se vaya de la empresa. Sin reclamar", apunta el empleado. Además, también explican que hay tres turnos de trabajo: mañana, tarde o noche, que van cambiando cada dos semanas. Un hecho que también contribuye a intensificar sus problemas mentales y que pueden provocar trastornos del sueño.

La propia empresa Meta revela que solo en el segundo trimestre del 2023 fueron retirados de Facebook 7,2 millones de contenidos por abuso sexual a niños, otros 6,4 millones por suicidio y autolesión y 17,5 millones por discurso de odio.