Mundo > REDES SOCIALES

Moderadores de Facebook denuncian daños a la salud mental y falta de apoyo psicológico

Buscan que la compañía los compense por los centenares de contenidos aberrantes que debieron presenciar durante las agotadoras jornadas laborales
Tiempo de lectura: -'
23 de junio de 2023 a las 05:02

Trevin Brownie no ha olvidado su primer día como moderador de contenidos para Facebook, en las oficinas de una empresa subcontratada situadas en Nairobi, la capital de Kenia. Tal vez nunca lo pueda olvidar.

"Mi primer video era el de un hombre que se suicidaba. Tenía un niño de 2 o 3 años jugando al lado. Después de que el hombre se ahorcara, al cabo de unos dos minutos, el chico entendió que algo no iba bien", cuenta Trevin, un sudafricano de 30 años, antes de describir la reacción del niño.

"Este trabajo me enfermó", relata Trevin. Las imágenes le provocaron "náuseas y vómitos". "Pero continué haciendo mi trabajo", agrega.

Entre 2020 y 2023, al igual que otros moderadores, cada día vio centenares de videos violentos, con llamados al odio de todo tipo, con el objetivo de bloquearlos y evitar así que llegaran a los ojos de los usuarios de Facebook, la plataforma con sede en Menlo Park, California.

Trevin trabajaba en Nairobi para Sama, una empresa también con una oficina central en California, a la que Meta, la matriz de Facebook, Instagram y Whatsapp, contrató entre 2019 y 2023 para que se encargara de los contenidos de Facebook en África subsahariana.

Por el centro de operaciones han pasado hasta 260 moderadores de varios países africanos contratados, sobre todo, por conocer numerosas lenguas locales.

Trevin afirma que su trabajo lo obligó a ver "cientos de decapitaciones", "órganos arrancados de cuerpos", "violaciones y pedopornografía " y "niños soldados preparándose para la guerra". En síntesis, una larga lista de aberraciones.

"Los humanos hacen cosas a otros humanos que nunca habría imaginado. La gente no tiene idea de los videos morbosos de los que se libran gracias al trabajo de los moderadores", agrega.

Batalla judicial

Trevin es demandante en uno de los tres casos abiertos contra Meta y Sama en Kenia. Con otros 183 exempleados de Sama, luego que la firma anunciara que cesaba en su tarea, el hombre inició una demanda en reclamo de una compensación por “sueldos insuficientes” con relación a los “riesgos al que se exponía” y los daños “causados a la salud mental”.

La ofensiva judicial empezó cuando otro extrabajador, Daniel Motaung, presentó una demanda en mayo de 2022 ante un tribunal de Nairobi denunciando condiciones laborales "indignas", “métodos de contratación engañosos”, “remuneraciones insuficientes” y “falta de apoyo psicológico”. Denuncias que confirman otros denunciantes.

Dos de ellos, Amin y Tigist, que hablaron bajo reserva de identidad, fueron  contratados en 2019 en el primer grupo de moderadores de Sama. Ambos afirman que respondieron a una oferta laboral para desempeñarse en centros de atención telefónica.

Sin embargo, no fue hasta firmar los contratos con cláusulas de confidencialidad que descubrieron que en realidad iban a trabajar como moderadores de contenidos. Amin y Tigist no dijeron nada, ni pensaron en irse.

"No tenía ni idea de lo que es un moderador de contenidos, nunca había oído hablar de eso", cuenta Tigist, una etíope que consiguió el trabajo por saber hablar la lengua amhárica. "La mayoría de nosotros no sabía la diferencia entre un centro de atención telefónica y un centro de moderación de contenidos", confirma Amin, que trabajaba en un mercado somalí.

"Durante la formación, le restaron importancia al contenido. Lo que nos enseñaron no era nada comparado con lo que acabaríamos viendo", añade Amin. "Los problemas empezaron después", completa Tigist.

Situaciones traumáticas

En sus pantallas, ocho horas al día, iban pasando contenidos, cada cual más impactante. "Uno no elige lo que ve, llega por azar. Videos de suicidios, violencia, explotación sexual de niños, desnudez, incitación a la violencia...", enumera Amin.

Tenían que dedicar una media de 55 a 65 segundos a cada video y analizar entre 378 y 458 publicaciones al día, bajo riesgo de ser llamados al orden o despedidos si iban demasiado despacio, explican Amin y Tigist.

Ante la requisitoria periodística, Sama se limitó hasta el momento a señalar que no está "en condiciones" de responder preguntas. Argumenta que las demandas están en curso. Meta, por su parte, sólo respondió que los moderadores "en principio no tienen que evaluar un número definido de publicaciones, no tienen cuotas y no están obligados a tomar decisiones apresuradas".

"Autorizamos y alentamos a las empresas con las que trabajamos a que le den a sus empleados el tiempo que necesiten para tomar una decisión", añadió la compañía propiedad del magnate australiano Mark Zuckerberg.

Trevin, Amin y Tigist nunca imaginaron las consecuencias que el trabajo acabaría teniendo en sus vidas. No consultaron a ningún psicólogo o psiquiatra por falta de dinero, pero todos cuentan que tienen síntomas del síndrome de estrés postraumático y dificultades para relacionarse con la familia y la sociedad.

Trevin afirma que como consecuencia de la exposición a los videos, tiene "miedo de los niños por culpa de los niños soldado", y también a los lugares atestados de gente "a causa de todos los videos de atentados" que ha visto. "Me volvían loco las fiestas. No he ido a un club desde hace tres años. No puedo, tengo miedo", sostiene.

En el caso de Amin, los principales efectos se ven en su cuerpo. Dice que perdió unos 30 kilos. Todos aseguran que se han vuelto insensibles a la muerte y al terror. "Mi corazón se ha vuelto de piedra", resume Tigist.

Pobreza, obliga

Meta argumenta que tiene "contratos claros" con todos sus socios, que incluyen "la disponibilidad de asesoramiento individual, un apoyo adicional para quienes están expuestos a un contenido más difícil".

"A todas las empresas con las que trabajamos les exigimos que proporcionen una asistencia las 24 horas del día, los 7 días de la semana, con profesionales formados, un servicio de guardia y el acceso a la atención sanitaria privada desde el primer día de contrato", dijo la compañía.

Según los denunciantes, el apoyo propuesto por Sama a través de "consejeros de bienestar" no estaba a la altura y se basaba en entrevistas vagas, sin un seguimiento efectivo. Además, cuestionan la confidencialidad de las sesiones. "No era para nada útil. No digo que no estuvieran cualificados, pero creo que no lo estaban lo suficiente como para tratar a personas que moderan contenidos", considera Amin.

Pese a tener conciencias de los traumas que les generaba el trabajo, siguieron haciéndolo porque les "hacía falta ese dinero". Con un sueldo mensual de 40.000 chelines, unos US$287 dólares, y 20.000 chelines suplementarios para los no kenianos, ganaban casi el triple del salario mínimo nacional.

"Desde 2019, no tuve oportunidad de encontrar otro empleo, pese a haberme presentado a muchos. No tenía otra opción. Por eso me quedé tanto tiempo", explica Amin.

“Mecanismos de defensa”

Para aguantar el ritmo de trabajo y en un intento por escapar a las consecuencias psicológicas, los moderadores deben encontrar "mecanismos de defensa", explica Trevin. Algunos recurren al uso de drogas, como el cannabis, dicen los entrevistados.

El sudafricano, a quien solían encantarle las comedias, se volcó en las películas de miedo. "Era una forma de huir de mi realidad", afirma. Además, explica que también desarrolló una "adicción" a las imágenes violentas.

"Pero uno de nuestros principales mecanismos de defensa es que estamos convencidos de la importancia de este trabajo", añade Trevin. “Tenía la impresión que me estaba haciendo daño, pero por una buena razón, que el sacrificio valía la pena por el bien de la sociedad", dice.

"Sin nosotros, las redes sociales no pueden existir", agrega. "Nadie abriría Facebook si estuviera lleno de contenidos impactantes, de venta de drogas, de chantajes, de acoso", enumera.

"Merecemos que nos traten mejor"

"Esto causa daños y nosotros nos sacrificamos por nuestra comunidad, por el mundo. Merecemos que nos traten mejor", apunta Tigist. Al igual que Trevin y Amin, asegura que por ningún motivo volvería a trabajar como moderador.

"Mi opinión es que ningún humano debería hacer eso. No es un oficio para humanos", explica Trevin. "Francamente, me gustaría que la inteligencia artificial pudiera hacer ese trabajo", dice el hombre, aunque duda que la alternativa sea posible en un futuro próximo pese a que Meta afirma que la tecnología juega y seguirá jugando un papel central en sus operaciones de verificación de contenidos.

Hasta ahora, ni Trevin, ni Amin, ni Tigist habían hablado de su trabajo; ni siquiera con sus respectivas familias a causa de las cláusulas de confidencialidad, y también porque "nadie puede entender lo que vivimos", según Amin.

"Si la gente se entera, por ejemplo, de que he visto pornografía, me juzgarán", explica Tigist. A su esposo, le contaba poco sobre lo que hacía. A sus hijos, se lo ocultó todo: "No quiero que sepan lo que he hecho. Ni siquiera quiero que se imaginen lo que he llegado a ver", afirma.

(Con información de AFP)

Comentarios

Registrate gratis y seguí navegando.

¿Ya estás registrado? iniciá sesión aquí.

Pasá de informarte a formar tu opinión.

Suscribite desde US$ 345 / mes

Elegí tu plan

Estás por alcanzar el límite de notas.

Suscribite ahora a

Te quedan 3 notas gratuitas.

Accedé ilimitado desde US$ 345 / mes

Esta es tu última nota gratuita.

Se parte de desde US$ 345 / mes

Alcanzaste el límite de notas gratuitas.

Elegí tu plan y accedé sin límites.

Ver planes

Contenido exclusivo de

Sé parte, pasá de informarte a formar tu opinión.

Si ya sos suscriptor Member, iniciá sesión acá

Cargando...