Así es el día a día de un moderador de Facebook: 8000 posts y muchas cosas horribles

Una antigua trabajadora de la compañía tecnológica explica lo que se oculta tras el trabajo de revisor de entradas en Facebook.

Así es el día a día de un moderador de Facebook: 8000 posts y muchas cosas horribles
Sarah Katz, antigua trabajadora de Facebook. Business Insider

Muchos nos fijamos, con cierta envidia, en las compañías tecnológicas más punteras en el mundo. Los trabajadores que disfrutan de sus largas jornadas en esos centros de trabajo, parecen unos privilegiados con oficinas coloridas, salas de descanso con todo tipo de elementos de relajación y un ambiente laboral que permite al resto de mortales tenerles cierta envidia. Sin embargo, la mayoría de esos trabajos implican jornadas maratonianas, escalar posiciones en luchas internas donde únicamente sobreviven lo más espabilados y, en algunos casos, realizar ciertas tareas que no parecen estar en la lista de trabajos idílicos.

No todo es ideal en las grandes compañías

Hoy te quiero presentar el caso de una antigua trabajadora de Facebook, que asegura haber visto y leído tanta información en la red social, que ya está vacunada contra muchos horrores de nuestra especie. Si quieres descubrir más acerca del cometido de esta joven empleada, este es tu artículo.

Un testimonio de orgullo

La protagonista de esta historia se llama Sarah Katz y desempeñaba una labor bastante farragosa en la red social más polémica de los últimos meses. Su trabajo, del cuál ella afirma sentirse completamente orgullosa, consistía en revisar el contenido de miles de entradas, publicadas por miles de usuarios, a diario en Facebook. Subcontratada a través de una compañía llamada Vertisystem, su trabajo podría definirse como notificadora de violaciones en el comportamiento de la comunidad. ¿Cómo realizaba su labor?

El desarrollo del trabajo podría resultar perturbador

Te diría que era algo sencillo, pero eso solo implicaría hablar de su funcionamiento. La realidad es que, como moderadora, debía ver una cantidad ingente de material censurable, nada recomendable. Cada diez segundos, tal y cómo relatan en el artículo publicado por el medio de comunicación online Business Insider, debía observar una entrada potencialmente complicada de ver y decidir, en ese momento, si debían deshacerse de ella.

La compañía, en un informe de transparencia que puedes obtener de la fuente oficial de Facebook, ya adelantó que durante el primer trimestre de este año 2018 había tenido que intervenir en 21 millones de post que incluían contenido sexual o desnudos y en 3,4 millones de entradas que mostraban violencia de un modo gráfico. Además, otros tantos millones de entradas tuvieron que ser intervenidas, debido a la inclusión de mensajes de odio y terrorismo.

Un documento elimina posibles demandas legales

Sarah, antes de comenzar su labor en la empresa, tuvo que firmar un documento en el que afirma ser consciente del tipo de material con el que puede encontrarse durante su trabajo. Se le advierte, además, que en caso de no querer continuar desempeñando esta labor, deberá avisar a la compañía. En relación a este asunto, Sarah afirma que:

Facebook tiene miles de millones de usuarios y personas que no saben utilizar la plataforma de un modo correcto, con lo que existe mucho contenido relacionado con pronografía, bestialidad y violencia gráfica. Existía mucho contenido que no te esperarías ver compartido en Facebook.

La perversión humana

Uno de los casos que marcaron el paso de Sarah por Facebook tenía como protagonistas a dos niños. Existía una imagen y un vídeo que salían, una y otra vez, en su lista de revisiones pendientes e involucraban a dos menores, parcialmente desnudos y tocándose uno enfrente del otro, algo que daba a entender que estaban siendo manipulados por alguien detrás de la cámara. Sin embargo, algo hizo saltar las alarmas en Sarah. Se le pidió, expresamente, que no reportase a las cuentas que compartían el material. La experiencia fue algo desconcertante para ella, como afirma en sus declaraciones:

Iba y venía. Podía aparecer multitud de veces en un día. Cada vez, la localización del usuario era diferente. Un día compartía desde Pakistan y al día siguiente lo hacía desde Estados Unidos. Es bastante difícil seguir el rastro de la fuente inicial. En caso de que la cuenta del usuario tenga menos de 30 días, la desactivábamos como cuenta falsa. Si la cuenta tenía más de 30 días, simplemente eliminábamos el contenido y dejábamos la cuenta activa.

Así es el día a día de un moderador de Facebook: 8000 posts y muchas cosas horribles

Imagen de las instalaciones de Menlo Park donde trabajaba Sarah. <a href="http://observer.com" rel="nofollow" target="_BLANK">Observer</a>

Sarah asegura que es necesario el aumento de medios humanos en la empresa

La denuncia de la trabajadora, durante su estancia en la compañía, iba va más allá y llevaba implícito un mensaje de discrepancia con la manera de actuar de Facebook ante casos tan graves como el abuso y la pornografía infantil. Además, insiste en la necesidad de aumentar el número de trabajadores dedicados a la moderación de contenido. En la actualidad, la compañía defiende su integridad, honestidad, vigilancia y persecución de este tipo de actividades. En declaraciones realizadas por un portavoz de la misma:

Nuestro equipo global de revisión de contenido juega un papel fundamental para la creación de un ambiente seguro para la comunidad de Facebook, que es nuestra prioridad número uno. Nosotros reconocemos que este trabajo, habitualmente, puede resultar difícil, con lo que ponemos a disposición de nuestros trabajadores apoyo psicológico y de bienestar.

Para ti
Queremos saber tu opinión. ¡Comenta!