71°F
weather icon Mostly Cloudy

Antiguos moderadores de contenidos demandan a TikTok por exposición de videos gráficos

En turnos de 12 horas durante siete meses, Ashley Velez vio un video tras otro de violencia gráfica y abuso de menores como moderadora de contenidos de TikTok.

El jueves, la residente de Las Vegas y otro antiguo moderador de contenidos presentaron una demanda colectiva federal contra TikTok y su propietario, Bytedance Inc, alegando que la empresa violó la ley de competencia desleal de California al no proporcionar un entorno seguro a los empleados.

“Los demandados confían en los moderadores de contenido para garantizar que TikTok esté libre de contenido gráfico y censurable”, afirma la demanda. “Los demandados monitorean y controlan el trabajo diario de los moderadores de contenido y proporcionan el software que permite a los moderadores de contenido hacer su trabajo. Por lo tanto, los demandados están obligados por ley a pagar por el daño causado al exigir a los moderadores de contenidos que revisen y eliminen los contenidos gráficos y censurables”.

Bytedance no respondió el martes a una solicitud de comentarios.

Steve Williams es abogado del despacho jurídico Joseph Saveri de San Francisco, que representa a los demandantes. Williams dijo que, en una demanda colectiva anterior presentada por su despacho jurídico, Facebook acordó pagar 52 millones de dólares en un acuerdo con moderadores de contenidos que dijeron haber sufrido traumas psicológicos y trastorno de estrés postraumático después de ver y eliminar videos ofensivos y perturbadores para la plataforma de red social.

“Una batalla difícil”

Pero Williams dijo que los litigios relativos a los moderadores de contenidos son aún relativamente nuevos.

“No existe ningún precedente”, dijo. “Los demandados son empresas gigantescas y poderosas con despachos jurídicos realmente grandes, así que es una batalla cuesta arriba”.

Según su demanda, Vélez y Reece Young, residente en Nashville, Tennessee, fueron contratados por empresas externas distintas para trabajar como moderadores de contenidos para TikTok. Ambos se presentaban a las mismas tareas, y estaban sujetos a ser monitoreados y disciplinados por la empresa, dice la demanda. Vélez trabajó para la empresa desde mayo de 2021 hasta noviembre, mientras que Young fue moderador de contenidos durante unos 11 meses a partir de 2021.

Los moderadores solían tener unos 25 segundos para ver cada video durante sus turnos de 12 horas, que incluían un descanso de una hora y dos descansos de 15 minutos. La empresa retenía el pago si los moderadores no estaban en el software de chequeo de videos fuera de su tiempo de descanso asignado, y los moderadores a menudo veían varios videos a la vez para cumplir con las cuotas, alega la demanda.

Muchos de los videos mostraban “violencia extrema y gráfica”, escribieron los abogados de los demandantes.

“El demandante Young vio cómo unos miembros de un cártel ejecutaban a un niño de trece años, bestialidad y otras imágenes angustiosas”, afirma la demanda. “El demandante Vélez vio bestialidad y necrofilia, violencia contra niños y otras imágenes angustiosas”.

Los moderadores de contenido también fueron expuestos repetidamente a “teorías de conspiración” sobre la pandemia del COVID-19, a la negación del Holocausto, a discursos de odio y a videos manipulados de funcionarios electos, según la demanda.

“Los demandantes han buscado terapia con su propio tiempo y esfuerzo debido al contenido al que estuvieron expuestos mientras prestaban servicios de moderación de contenidos para TikTok porque no se les proporcionaron medidas profilácticas adecuadas antes de la exposición ni medidas paliativas apropiadas después de la exposición”, alega el documento.

La demanda solicita una orden judicial para compensar a los moderadores de contenidos que estuvieron expuestos a contenidos gráficos, para proporcionar a los moderadores “herramientas, sistemas y apoyo obligatorio y continuo en materia de salud mental”, y para proporcionar exámenes y tratamiento de salud mental a los moderadores actuales y antiguos.

Además, la demanda alega que la capacitación que recibieron los empleados no los preparó adecuadamente para el contenido que verían, y que los acuerdos de confidencialidad impidieron a los moderadores hablar con nadie sobre los videos.

Estándares de la industria

También se acusa a TikTok y Bytedance de no cumplir los estándares de la industria para mitigar el daño a los moderadores de contenidos.

La Coalición Tecnológica, que incluye a empresas tecnológicas como Google, Facebook y TikTok, recomienda limitar el tiempo que los empleados pasan viendo material perturbador a “no más de cuatro horas consecutivas”, afirma la demanda.

También recomienda que las empresas limiten la cantidad de tiempo que los empleados están expuestos a imágenes de abuso sexual infantil, proporcionen asesoramiento obligatorio en grupo e individual, y permitan a los moderadores optar por no ver imágenes de abuso sexual infantil.

El Centro Nacional para Niños Desaparecidos y Explotados también recomienda que las empresas modifiquen las imágenes gráficas cambiando el color o la resolución, difuminando o superponiendo una cuadrícula sobre la imagen, cambiando la dirección o reduciendo el tamaño de la imagen, o silenciando el audio, según la demanda.

“Los demandados no aplicaron los estándares mencionados como miembros de la Coalición Tecnológica”, según la demanda. “En su lugar, los demandados imponen a sus moderadores de contenidos unos estándares y cuotas de productividad que son irreconciliables con los estándares de atención aplicables”.

LO ÚLTIMO