Ser
moderador
de
contenidos
en
redes
sociales
no
es,
en
absoluto,
un
trabajo
sencillo.
Hasta
tal
punto
llega
la
dureza
de
esta
profesión
que
29
moderadores
de
contenido
de
Facebook
en
Barcelona
han
presentado
una
querella
criminal
contra
Meta
y
la
subcontrata
CCC,
alegando
daños
psicológicos
provocados
por
el
contenido
que
deben
revisar
en
Facebook,
Messenger
e
Instagram.
Este
no
es
un
caso
aislado.
En
el
pasado,
otro
moderador
ya
abrió
el
camino
legal,
y
la
justicia
reconoció
que
su
enfermedad
mental
estaba
directamente
relacionada
con
su
labor.
Estos
trabajadores
estaban
expuestos
a
diario
a
contenidos
extremadamente
violentos
y
perturbadores:
asesinatos,
decapitaciones,
descuartizamientos,
violaciones,
zoofilia,
pedofilia,
entre
otros.
Y,
para
poder
bloquearlos,
están
obligados
a
verlos.
GUÍA
MEJORA
la
SEGURIDAD
y
PRIVACIDAD
de
La
querella
apunta
a
que
no
avisaron
de
las
imágenes
que
verían
Según
relatan
los
denunciantes,
la
exposición
constante
a
estas
imágenes
generaba
ansiedad,
ataques
de
pánico
e
incluso
mareos.
En
la
primera
sentencia
conocida,
se
reveló
que
la
subcontrata
de
Meta
presentaba
una
tasa
del
20%
de
bajas
por
enfermedad
mental
entre
sus
empleados.
Y
ahora
poco
a
poco
van
surgiendo
nuevos
relatos.

Tal
y
como
ha
adelantado
La
Vanguardia,
la
demanda
reclama
una
indemnización
de
150.000
euros
por
empleado
por
el
sufrimiento
causado
por
la
visualización
de
estos
contenidos
inhumanos.
Acusan
a
la
empresa
de
delitos
contra
los
derechos
de
los
trabajadores
y
contra
la
integridad
moral.
La
querella
también
va
dirigida
personalmente
contra
el
director
de
CCC
Barcelona
Digital
Services
(la
subcontrata
que
contrata
Meta),
así
como
contra
el
gerente
y
el
responsable
de
recursos
humanos.
La
querella
recoge
testimonios
estremecedores.
Por
ejemplo,
una
trabajadora
que
comenzó
en
2018
cayó
en
incapacidad
temporal
en
2022
y
requiere
seguimiento
psicológico
desde
entonces.
Otros
compañeros
sufrieron
ataques
de
pánico
o
desarrollaron
pensamientos
suicidas.
Además,
acusan
a
los
tres
responsables
de
CCC
de
no
advertir
en
ningún
momento
sobre
la
naturaleza
del
contenido
que
tendrían
que
moderar,
pese
a
conocerlo.
Aseguran
que
durante
el
proceso
de
contratación
de
2018
no
se
les
explicó
con
claridad
el
objetivo
del
puesto,
ni
se
les
mostró
material
gráfico
similar
al
que
se
encontrarían.
El
único
requisito
a
cumplir
era
conocer
el
inglés
y
el
idioma
del
contenido
que
iban
a
moderar.
Esta
falta
de
preparación
hizo
que
la
exposición
a
dichos
contenidos
fuera
aún
más
traumática
e
inesperada.
Como
parte
del
trabajo,
los
moderadores
estaban
obligados
a
ver
los
vídeos
completos
para
poder
aplicar
correctamente
los
criterios
de
censura,
no
pudiendo
saltarlos
o
dejarlos
a
mitad
para
reducir
el
sufrimiento.
Imágenes
|
Solen
Feyissa
Brett
Jordan




































