El 20 de mayo de este año, el Consejo Asesor de Contenidos de Facebook (CAC) resolvió el caso 2021-005-FB-UA, en el que determinó revocar la decisión inicial de Facebook de eliminar un comentario por incumplir sus Normas comunitarias sobre lenguaje que incita al odio. Si bien este caso no ha tenido la misma repercusión que el caso Trump −analizado en este mismo espacio−, no debemos perder de vista sus implicaciones en el ejercicio de la libertad de expresión en plataformas como Facebook frente a la moderación de contenidos. En este artículo se analiza brevemente la decisión del CAC y sus implicaciones.

Ilustración: Kathia Recio
Antecedentes del caso: sátira y censura
El 24 de diciembre de 2020, un usuario en Estados Unidos respondió una publicación en una página de Facebook con una adaptación del popular meme de los “2 botones” en el que colocaba la bandera de Turquía encima del personaje que debía escoger entre una de las siguientes alternativas: “el genocidio armenio es una mentira” y “los armenios eran terroristas que se lo merecían”. En el caption de la publicación, aparecía el emoji de cara pensativa. Este comentario hacía referencia a los hechos ocurridos en 1915 en los que el Imperio Otomano asesinó a cerca de un millón y medio de armenios.
Ese mismo día, dos moderadores de contenido de Facebook revisaron la publicación debido a que fue reportada por otro usuario de la plataforma. Concluyeron que era necesario eliminarla por infringir las Normas comunitarias sobre contenido cruel e irrespetuoso. Al resolver la apelación del usuario, Facebook sostuvo su decisión, pero precisó que el contenido debía haberse eliminado en cumplimiento de la política sobre lenguaje que incita al odio. En este punto, es importante resaltar que Facebook admite excepciones cuando las publicaciones comparten contenido que incita al odio sólo cuando la intención es condenarlo o crear conciencia sobre sus efectos perniciosos. Sin embargo, en este caso, Facebook señaló que el meme no entraba en ese supuesto de excepción porque el usuario no dejó claro que su propósito era condenar la violencia contra la comunidad armenia.1
La decisión del Consejo Asesor de Contenidos (CAC)
Para resolver el caso, el CAC realizó un análisis teleológico sobre el meme de los “dos botones”, señalando que la intención comunicativa de este meme es contrastar dos opciones diferentes para destacar posibles contradicciones. Bajo esa idea, el CAC consideró que la intención del usuario al colocar la bandera turca en el rostro del personaje del meme era criticar la postura del gobierno turco en relación con esos hechos, lo cual corresponde con el uso del emoji de la cara pensativa, pues éste “se usa comúnmente para transmitir sarcasmo”.2 Por ello, contario a lo que resolvió Facebook en la apelación, el CAC concluyó por mayoría que la intención del usuario sí era lo suficientemente clara como para exceptuarla de la prohibición de compartir discursos de odio, pues el comentario buscaba evidenciar “los esfuerzos del Gobierno turco por negar el genocidio armenio mientras justificaba esas mismas atrocidades históricas”.3
Bajo esa lógica, al analizar si la eliminación del comentario era necesaria y proporcional, el CAC destacó el clima hostil que existe en Turquía contra la comunidad armenia y los intentos sistemáticos por negar los hechos de 1915. En este punto, el CAC refirió al caso de Hrant Dink, un periodista de origen armenio que fue condenado por los tribunales turcos por escribir sobre la ausencia de reconocimiento del genocidio y que posteriormente fue asesinado en Turquía. En ese contexto de represión, el CAC destacó que Facebook no puede exigir que sus usuarios sean explícitos sobre su intención, pues de ser así la sátira no tendría un efecto tan potente. Asimismo, concluyó que en ese contexto la intención del usuario al usar el meme y el emoji era bastante clara, por lo que la eliminación del comentario no protegía en forma alguna a la comunidad armenia y sí restringía la libertad de expresión del usuario de forma innecesaria y desproporcional.
Implicaciones
Este caso expone uno de los grandes problemas que entraña la moderación de contenidos en estas plataformas: la censura colateral.4 Facebook resolvió inicialmente que, en caso de duda sobre la intención del usuario, el contenido sarcástico que haga referencias a discursos de odio siempre deberá ser removido. El CAC no se opuso rotundamente a ese criterio, únicamente explicó que, bajo ese mismo estándar, la intención del usuario sí era clara y sólo por esa razón “Facebook se interpuso indebidamente en la libertad de expresión del usuario”. La solución que propuso el CAC fue recomendar que Facebook dote a sus moderadores de contenido de procedimientos adecuados para evaluar el contenido satírico y su contexto, así como más tiempo suficiente para realizar la evaluación. Sin embargo, esta propuesta también tiene problemas. Más allá de la crítica que se pueda esgrimir sobre la falta de fuerza vinculante de las decisiones del CAC y el hecho de que actores privados regulen el discurso en arenas públicas, el hecho de que la recomendación consista en que los moderadores de contenido tengan más tiempo e información para resolver es una solución parcial porque el CAC no proporcionó algún lineamiento sobre qué debe pasar con la publicación en ese plazo. Bajo el criterio sostenido en la decisión, no sería extraño que Facebook se inclinara más por la supresión temporal, lo que supondría una restricción adicional a la libertad de expresión, pues el contenido removido, aunque sea temporalmente, perderá su impacto una vez que sea aprobado y vuelto a publicar. No se debe olvidar que ese derecho tiene una dimensión social, por lo que las restricciones en su contra no sólo afectan al individuo en cuestión, sino a la sociedad en su conjunto,
Este caso es uno de los tantos millones que se suscitan todos los días y, como ya comprobó el CAC, la asignación de significados de ciertos contenidos no es sencilla ni rápida. No se debe pasar desapercibido que hubo una minoría que sostuvo que la intención del usuario no era lo suficientemente clara y no quedaba descartada la posibilidad de que el contenido tuviera la finalidad de apoyar y no de condenar la política del gobierno turco.
Al igual que en el caso Trump, la decisión del CAC no arrojó muchas soluciones, pero nos permite identificar con mayor claridad los problemas de la moderación de contenidos. Hoy ese proceso es imperfecto, por tanto, nos guste o no, los errores seguirán sucediendo. La cuestión es qué valores deben priorizar para que resulten menos afectados.
Héctor Armando Salinas Olivares. Licenciado en derecho por el CIDE y estudiante de la maestría en derechos humanos y garantías por el ITAM
1 Antes, Facebook exceptuaba las publicaciones humorísticas de la prohibición de discurso de odio. Sin embargo, después de una auditoría en derechos civiles en 2019, en la que se recomendó que se considerara que “el humor es subjetivo y su interpretación se deja en gran medida a los ojos del espectador”, Facebook decidió remover la excepción. Facebook’s Civil Rights Audit – Final Report p. 44. Fecha de consulta: 20 de mayo de 2021.
2 Decisión del caso 2021-005-FB-UA. Fecha de consulta: 20 de mayo de 2021.
3 Ídem.
4 Este término fue acuñado por Jack Balkin y lo desarrolla en su artículo: “Free Speech is a triangle”, Columbia Law Review, vol. 118, núm. 7, 2011, p. 2016