Tras los primeros rayos de sol, un trabajador se prepara para enfrentar otra extenuante jornada laboral. Durante ocho horas, sus cansados ojos se ven bombardeados con una serie interminable de mensajes que los sumergen a los rincones más oscuros de la humanidad: suicidios, decapitaciones y actos sexuales explícitos, reclaman su inquebrantable atención. Su misión es evitar que estos videos e imágenes se propaguen por internet, aplicando cabalmente las políticas y directrices de la empresa. La pausa para comer le permite un breve respiro. Tiene sólo media hora para almorzar. Cualquier retraso podría acarrear sanciones por su ausencia temporal. Y todo a cambio de un salario humillante, 2.20 dólares por hora, sin apoyo para el inevitable desgaste psicológico que conlleva su trabajo. Las cicatrices mentales que estos trabajadores cargan son los costos ocultos de proteger el espacio cibernético que a menudo damos por sentado.

Esta instantánea ilustra el modelo en el que trabajan los moderadores de contenidos alrededor del mundo. No son empleados formales, sino mano de obra subcontratada, relegada a las sombras y olvidada por las plataformas a las que sirven. Esta tarea vital se delega a trabajadores de Kenia, Filipinas, India y otras regiones, en condiciones que carecen de reconocimiento sindical, protección de su salud mental y demás derechos laborales básicos. Esta sombría realidad plantea importantes cuestiones sobre las consecuencias sociales de externalizar la moderación de contenidos y sobre la responsabilidad que deben asumir los gigantes tecnológicos por el bienestar de sus trabajadores.
El año pasado, el lanzamiento de ChatGPT al público despertó un gran interés en el campo de la inteligencia artificial conversacional. Sin embargo, no podemos perder de vista que estos modelos dependen de trabajadores mal remunerados que operan detrás de escena, principalmente en el sur global. OpenAI envió extensos fragmentos de texto a una empresa de subcontratación con sede en Kenia llamada Sama, donde los trabajadores ganaban escasamente 2 dólares por hora para etiquetar y mejorar los datos para ChatGPT. Los textos que debían revisar mostraban situaciones gráficas y perturbadoras de abuso sexual infantil, zoofilia, asesinato, suicidio, tortura, autolesiones e incesto. Sin embargo, OpenAI no es la única organización que subcontrata la moderación de contenidos, otros intermediarios se encargan de la moderación de plataformas como Facebook, YouTube y TikTok.
Recientemente, más de 200 trabajadores subcontratados para la moderación de contenidos fueron despedidos, lo que motivó que interpusieran una demanda colectiva ante los tribunales kenianos. Cabe destacar que estos trabajadores residen en Kenia, pero algunos provienen de otros países africanos, como Ruanda o Sudáfrica, lo que hace que el equipo sea multilingüe y multicultural. La Cumbre de Moderadores de Contenidos de Nairobi dio seguimiento a estas demandas, donde numerosos trabajadores establecieron el primer Sindicato de Moderadores de Contenidos. El tribunal de Kenia falló a favor de los demandantes, reconociendo a Meta como empleador directo de los moderadores de contenido, independientemente del socio intermediario.
Esta decisión no sólo arroja luz sobre las prácticas de explotación que han afectado a dicha industria durante las últimas décadas, sino que también abre el camino hacia cambios significativos en los derechos y condiciones de los moderadores de contenido. El reconocimiento por parte de los tribunales kenianos de que Meta puede ser considerada responsable en asuntos laborales representa una victoria significativa. Aunque la resolución preliminar sobre la competencia del caso no determina el resultado final del mismo, sí proporciona un marco legal para que los demandantes puedan hacer valer sus derechos laborales de manera directa ante las grandes empresas tecnológicas. Un logro destacable ya que estos gigantes a menudo emplean tácticas para evitar procesos judiciales, trasladándose a jurisdicciones favorables a sus intereses.
Una vez establecida la competencia de las cortes kenianas, el tribunal determinó en un segundo momento que Meta ejerce control sobre las prácticas de los moderadores de contenidos al proporcionarles un espacio de trabajo digital o virtual y establecer directrices específicas para los procesos de moderación. Meta es un empleador o patrón, en los términos de la legislación laboral keniana, en la medida que establece requisitos operativos que definen y afectan el desempeño del trabajador. Por otro lado, la empresa contratante se considera un intermediario, similar a un agente o gestor, y no un sustituto de Meta. La decisión del tribunal destaca que Meta tiene responsabilidad e influencia importantes en las operaciones de moderación de contenidos, lo que le obliga a responder a las exigencias laborales planteadas por los trabajadores.
Como era de esperarse, Meta ha anunciado su intención de apelar la decisión y es posible que se plantee mover sus operaciones a alguno otro país del sur global que ofrezca marcos legales más favorables para la subcontratación. Sin embargo, los acontecimientos en Kenia están impulsando una mayor conciencia sobre la necesidad de reconocer y proteger los derechos de los trabajadores de moderación de contenidos. Lo cual podría desembocar en un avance generalizado de los estándares de esta industria.
La decisión de Kenia es parte de una tendencia más amplia en la que los trabajadores de plataformas digitales han luchado por el reconocimiento de su estatus como empleados de las plataformas a las que sirven. Por ejemplo, en 2021, el Tribunal Supremo del Reino Unido falló a favor de los conductores de Uber, reconociéndolos como empleados de la empresa, con derechos laborales como salario mínimo y vacaciones pagadas. Sentencias similares se han dado en Países Bajos, donde repartidores de comida por plataforma, antes considerados trabajadores independientes, fueron reclasificados como «empleados regulares». Si bien la externalización no es exclusiva de las plataformas digitales, estas empresas tienen la capacidad única de dividir el trabajo complejo en tareas sencillas mientras supervisan el rendimiento de los trabajadores a distancia, lo que ha hecho que tanto la subcontratación como el falso auto-empleamiento (bogus self-employment) sea parte esencial en sus modelos de negocio.
Para los trabajadores, el reconocimiento de la relación laboral con la plataforma es una lucha contra corriente. Los tribunales suelen evaluar factores como el grado de control, dependencia y supervisión del contratista para determinar si existe una relación laboral directa. Probar que un trabajador de la llamada gig economy está bajo el control directo de una plataforma es una odisea jurídica. En el caso de Kenia, las políticas de moderación de contenidos emitidas por Meta sirvieron como prueba del control ejercido por la plataforma hacia los trabajadores. Sin embargo, cuando intermedian factores como la gestión algorítmica (algoritmic management), la gamificación y los ratings de clientes, demostrar el control de la plataforma resulta más complicado.
Ser reconocido como ‘empleado’ tiene beneficios evidentes: acceso a seguridad social, salario mínimo, derechos laborales, etc. Sin embargo, la mayoría de los trabajadores carecen del respaldo de una estructura que defienda sus derechos y asuma los costos en tiempo y dinero que implica organizar y movilizar al conjunto de trabajadores en defensa de sus derechos. Esto conlleva lo que comúnmente se denomina un problema de acción colectiva: cada individuo se beneficiaría de cooperar, pero nadie quiere asumir los costos individuales de hacerlo. El riesgo que asume un trabajador para movilizarse a título individual es muy alto, particularmente si se considera el acoso laboral al cual son sujetos por su empleador cuando buscan sindicalizarse o simplemente mejorar sus condiciones laborales.
Hoy por hoy, diversos tribunales han permitido un litigio estratégico para defender los derechos de los trabajadores y abordar los problemas de clasificación laboral errónea (auto-empleados u outsourcing) en la economía de plataforma. Sin embargo, depender únicamente de resoluciones judiciales no garantiza cambios sistémicos en las condiciones laborales de la gig economy. Un enfoque más efectivo son las reformas legislativas que capacitan a los trabajadores para impugnar posibles clasificaciones erróneas y garantizar sus derechos. Un ejemplo de este tipo de reformas es la «Ley Rider» de España, promulgada en 2021, que reconoce a los operadores de plataformas como empleados formales, asegurando que reciban protecciones sociales y beneficios de sus empresas. Esta medida proactiva libera a los trabajadores de la carga de litigar para establecer su situación laboral, ya que la ley reconoce explícitamente la relación laboral independientemente del medio digital en que suceda. La carga de la prueba recae en las plataformas para demostrar que sus empleados deben ser clasificados como trabajadores independientes y no al revés.
En México, como en el resto del sur global, requerimos que nuestros legisladores, en especial aquellos que apoyan a la clase obrera, promuevan legislaciones que faciliten a los trabajadores establecer su situación laboral. Asimismo, es necesario legislación laboral que facilite la sindicalización de los trabajadores de las plataformas. A mayor cobertura sindical, más pronto es posible llegar a acuerdos sectoriales que garanticen una remuneración justa y condiciones laborales dignas en el sector.
Aunque los espacios de trabajo, las herramientas y las actividades pueden evolucionar con el tiempo, las empresas tienen la responsabilidad fundamental de garantizar que se protejan los derechos y la dignidad de sus trabajadores. Los recientes avances legales en Kenia son un impulso para para hacer avanzar la causa de los moderadores de contenidos y los trabajadores de plataformas en general, abogando por un trato más equitativo y su bienestar general.
Mauricio Figueroa. Maestro por la Universidad de Tel Aviv y actualmente realiza sus estudios de doctorado en Newcastle Law School, Reino Unido. @mfiguerres_.
José Luis Gallegos. Maestro por la Harvard Kennedy School of Government, y actualmente cursa un doctorado en Erasmus University, Países Bajos. @jlgallegos_.
Muy interesante e importante el artículo sobre IA de Figueroa y Gallegos .Es un tema que puede y debe analizarse continuamente durante los próximos años sin olvidar a la moral,ética y humanismo arrodilladas ante la ciencia-tecnología y la despiadada codicia ya deshumanizada.