Facebook, que se jactaba de ser el paraíso de la libertad de expresión en Internet para sus casi 3 mil millones de usuarios, recibió fuertes críticas en los últimos años debido a que en esta plataforma se esparcían cada vez más teorías conspirativas, discursos de odio y desinformación.
Un buen ejemplo es un caso reciente en Etiopía. Jawar Mohammed, con alrededor de un millón y medio de seguidores en Facebook y desde el exilio en Minnesota, lideró las protestas que permitieron que Abiy Ahmed lograra ocupar el cargo de Primer Ministro. Se liberaron miles de prisioneros políticos y periodistas, y se dio la bienvenida a quienes fueron exiliados. El cambio fue de tal magnitud que Abiy Ahmed recibió el Premio Nobel de la Paz en 2019. Sin embargo, Jawar Mohammed continuó con sus protestas respecto a la exclusión de la etnia Oromo, y a raíz de sus publicaciones incitando a la violencia en contra de otras etnias, en octubre de 2019 comenzó una ola de violencia brutal y sangrienta en contra de grupos minoritarios que aún no cesa a pesar de los intentos del gobierno por lograr la paz.
Si a ello sumamos que en 2016 agentes rusos utilizaron la plataforma para influir en la elección presidencial de Estados Unidos, y que las redes sociales permiten a los líderes políticos una relación directa (o al menos la apariencia de ello) con sus seguidores, la “moderación de contenido” tiene un gran impacto en nuestras democracias.

Ilustración: Estelí Meza
Consejo Asesor de Contenidos
La decisión final sobre esas cuestiones recaía, en el caso de Facebook e Instagram, exclusivamente en Mark Zuckerberg. Para evitar que solamente él (y particularmente quien en su momento pudiera llegar a sucederlo) tuviera el poder de decidir en qué sentido habrían de “moderarse los contenidos” que suben sus usuarios de esta plataforma, se propuso establecer un Consejo Asesor de Contenidos (CAC) multidisciplinario e internacional,1 integrado por activistas, juristas y académicos de reconocido prestigio. Entre los miembros actuales se encuentran Tawakkul Karman (Premio Nobel de la Paz), András Sajó (exjuez y vicepresidente del Tribunal Europeo de Derechos Humanos), Helle Thorning Schmidt (exprimera ministra de Dinamarca) y Catalina Botero (exrelatora especia para la libertad de expresión de la Comisión Interamericana de Derechos Humanos).
Una de las principales cuestiones que surgieron al momento de querer instaurar un CAC de alcance global fue la variabilidad de la comprensión sobre la libertad de expresión y sobre cuáles deben ser sus límites entre las diferentes culturas, regiones e ideologías políticas. Por ejemplo, aquello sobre lo que es legítimo bromear puede ser radicalmente distinto en sociedades que sufren violencia y discriminación sistémica. Sumado a ello, este CAC debe enfrentar la dificultad para conocer y comprender el contexto en que se dan dichas expresiones, precisamente porque ello requiere un entendimiento cultural, histórico, político y lingüístico muy preciso.
Por lo que ve a la independencia y legitimidad del CAC, ya se ha mencionado el prestigio de sus integrantes, pero a ello habría que sumar el hecho de que este consejo está administrado por un trust independiente, al cual Facebook ha transmitido 130 millones de dólares.
Funcionamiento
El CAC puede conocer de los casos mediante diferentes formas, entre las que se encuentran la apelación por parte de un usuario cuando le haya sido retirado algún post. Debe resaltarse que los usuarios anteriormente no podían acudir al CAC en aquellos casos en los que la decisión de Facebook era mantener un determinado contenido o post, lo cual solamente era estudiados cuando Facebook expresamente lo solicitaba. Sin embargo, recientemente Facebook ha abierto a los usuarios la posibilidad de denunciar cualquier contenido que se encuentre en la red social. En ese sentido, pudiera decirse que se atendió el reclamo de que el CAC serviría no solo como órgano legitimador de aquellas decisiones de Facebook con alto impacto político y social, sino también como sede para desviar los reclamos que anteriormente se hacían directamente en contra de Facebook y Zuckerberg.
Debe resaltarse que los usuarios no pueden acudir al CAC en aquellos casos en los que la decisión de Facebook ha sido mantener un determinado contenido o post, por lo que este tipo de decisiones solamente pueden ser estudiados por el CAC cuando Facebook expresamente se lo solicita. En ese sentido, pudiera decirse que el CAC serviría no sólo como órgano legitimador de aquellas decisiones de Facebook con alto impacto político y social, sino también como sede para desviar los reclamos que anteriormente se hacían directamente en contra de Facebook y Zuckerberg.
Por lo que ve al alcance de sus decisiones del CAC, debe precisarse que si bien son de cumplimiento forzoso para Facebook, no constituyen una especie de precedente que después pueda ser exigible. Quizá puedan volverse orientadoras o persuasivas para casos futuros en los que Facebook vaya a tomar una decisión, pero no más que eso. Por lo que ve a las recomendaciones sobre políticas que suele emitir el CAC, éstas podrían tienen un efecto consultivo, pero no son vinculantes.
El CAC elige los casos que considera más representativos entre todos aquellos que le son presentados, y tanto el usuario afectado como Facebook tienen la oportunidad de presentar argumentos por escrito antes de que el CAC emita su decisión. Asimismo, cualquier persona ajena al proceso puede allegar sus comentarios al CAC, en lo que podría asimilarse a la figura conocida como amicus curiae.2 Como veremos más adelante, en un caso derivado de una publicación en Instagram sobre cáncer de mama, el CAC expresamente se pronunció sobre los comentarios que argumentaban que las políticas de desnudez adulta discriminaban a las mujeres por tratar los pezones femeninos de una manera distinta a los masculinos.
Casos resueltos por el CAC
El CAC ha resuelto casos relacionados con discursos de odio, incitaciones a la violencia, desnudez y actividad sexual, apoyo a individuos y organizaciones peligrosas y desinformación sobre temas de salud.
En todos ellos se consideran como fuentes normativas (i) los estándares comunitarios de Facebook, (ii) los valores de Facebook, así como (iii) estándares de derecho internacional de los derechos humanos. Al igual que un gran número de cortes constitucionales e internacionales, utiliza el principio de proporcionalidad3 como método de análisis y justificación de sus decisiones con relación a derechos humanos. Conforme a dicho principio, el CAC analiza primeramente las normas aplicadas por Facebook y determina si el fin de la medida es legítimo, para después evaluar si existen formas menos lesivas de los derechos para obtener el resultado buscado, para finalmente estudiar si es proporcional la afectación del derecho frente al fin que se busca. Hasta este momento, el CAC ha resuelto seis casos.4
Myanmar, musulmanes y sarcasmos. EL CAC ordenó a Facebook restituir una publicación que, acompañada con fotografías en las que se ve a un niño sirio (Kurdo) ahogado en el intento de llegar a Europa, establecía que algo estaba mal con los musulmanes o con su mentalidad. Ello debido a la falta de respuesta de los musulmanes sobre el trato que se les da a los musulmanes Uyghur en China en comparación con las muertes ocasionadas por la respuesta a las caricaturas del profeta Mahoma realizadas por Charlie Hebdo en Francia.5
Juegos de palabras e insinuaciones basadas en origen nacional y étnico. El CAC analizó un juego de palabras, contenido en una publicación en ruso, en el que se utilizaba el término (taziks) como insinuación sobre los Azerbaijanos como nómadas sin historia en comparación a los armenios. El CAC realizó su propia traducción y sus estudios lingüísticos para entender el significado de la publicación, y confirmó la decisión de Facebook de retirar el comentario dado que implicaba una insinuación basada en la nacionalidad y el origen étnico.6
Desnudez y actividad sexual frente a la concientización del cáncer de mama. El CAC revocó la decisión de Facebook de retirar una publicación en Instagram que buscaba crear conciencia acerca de los síntomas del cáncer de mama. En la publicación se mostraban descripciones de distintos síntomas acompañadas de fotografías en las que aparecían pezones femeninos al descubierto. Utilizando el principio de proporcionalidad, analizó la legalidad de las normas aplicables -concluyendo que carecían de claridad-, el fin perseguido -válido, porque buscaba prevenir imágenes de abusos a niños y niñas y la circulación no consensuada de imágenes íntimas-, la necesidad -consideró que había métodos menos invasivos como prevenir al usuario sobre el contenido- y concluyó que la medida no era proporcional respecto a los demás derechos en juego. El CAC revocó la decisión de Facebook de remover el post, y concluyó también que el hecho de que las normas de Facebook traten diferenciadamente los pezones de las mujeres frente a los de los hombres, sumado a que dichas normas son aplicadas automáticamente, conlleva una alta probabilidad de que se actualice un impacto desproporcionado hacia las mujeres, estando por ello justificada la preocupación sobre discriminación.7
Goebbels. Ideologías, personas y asociaciones peligrosas. Un usuario publicó (sin imagen ni símbolo alguno) una cita incorrectamente atribuida a Joseph Goebbels, ministro de propaganda en la Alemania nazi. El contenido de la cita sostenía que debía argumentarse apelando a las emociones y a los instintos, y no así al intelecto. Decía también que lo importante no es la verdad sino las tácticas y la psicología. El usuario realizó dicha publicación dos años antes, y fue Facebook, a través de la función de “Recuerdo”, la que le sugirió volver a compartirlo. Cuando lo hizo, Facebook removió el comentario, argumentando que el usuario no brindó un contexto adicional que mostrara que su intención no era apoyar la ideología de la persona citada. Por su parte, el usuario argumentó que el comentario buscaba ser una crítica al gobierno de Donald Trump. El CAC consideró que la decisión de Facebook no era acorde con los estándares establecidos por la propia compañía, y que la presunción de que citar a un individuo peligroso implica apoyar o elogiar sus ideas o acciones es incorrecta. En ese sentido, consideró que la omisión de establecer explícitamente en sus estándares la necesidad de contextualizar un comentario que versa sobre personas u organizaciones peligrosas, generaba incertidumbre en los usuarios. Sumado a lo anterior, condenó que expresiones que no implican ningún riesgo fueran suprimidas, tal y como ocurrió en este caso, y aclaró que la libertad de expresión tiene un valor particularmente alto cuando se trata de debates públicos sobre figuras políticas.8
Covid-19 y los riegos de la desinformación. Facebook removió una publicación de un video acompañado con un texto en francés que cuestionaba la negativa de la Agence Nationale de Sécurité du Médicament (agencia gubernamental responsable de regular los productos del sector salud en Francia) para autorizar el uso de hidroxicloroquina combinada con azitromicina contra el COVID-19 -a juicio del usuario que hizo esta publicación sí se trataba de una cura propuesta por Didier Roault, profesor de la Facultad de Medicina de Marsella- y, por otra parte, sí autorizar el remdesivir. El CAC determinó que el comentario del usuario conllevaba una oposición a una política pública y pretendía que esta fuera modificada. Destacó también que dichos medicamentos no estaban disponibles en Francia sin prescripción médica, y que el comentario no incitaba a los usuarios a comprar o consumir medicamentos sin receta. El CAC revocó la decisión de Facebook y sostuvo que, a pesar de que pueden existir comentarios con un presupuesto fáctico posiblemente equivocado, el post era una manifestación protegida por la libertad de expresión al ser una crítica directa a una política gubernamental y, al mismo tiempo, una defensa y promoción a la opinión política de una minoría de la comunidad médica.9
Musulmanes indios, violencia y libertad de expresión religiosa. El último caso que ha resuelto el CAC versó sobre la publicación de un usuario, en un grupo público sobre musulmanes en la India, que consistía en un meme con una imagen de un programa de televisión Turco, en la que el personaje del programa aparece en una armadura de piel y sujetando una espada. Sobre el meme se encontraba un texto que decía “Si la lengua del infiel habla en contra del Profeta, se debe desenvainar la espada”, y se incluyeron hashtags referentes al presidente francés Emmanuel Macron como diablo, y una llamada a boicotear productos franceses. Facebook removió la publicación porque interpretó el término “infiel” como peyorativo y referente a no creyentes, y consideró que constituía una amenaza de violencia contra los “infieles”. En este caso, los miembros del CAC difirieron y considero que el uso del hashtag llamando a un boicot contra productos franceses era precisamente una llamada a una protesta no violenta y parte de un discurso relacionado con eventos políticos de actualidad. Una mayoría del CAC consideró que debía restituirse la publicación debido a que el contenido no superaba el umbral de incitación a la violencia, la hostilidad o la discriminación, y que tampoco ponía en riesgo la seguridad de manera tal que justificase el desplazamiento de la “voz” del usuario.10
Conclusiones
Es altamente probable que las decisiones del CAC puedan llegar a tener un impacto interesante tanto en las discusiones académicas como en la resolución de casos por parte de los jueces de nuestras democracias. Si consideramos que el CAC ha adoptado el principio de proporcionalidad como método argumentativo, así como las referencias que hace a las observaciones generales e interpretaciones realizadas por los órganos de tratados (como el Comité de Derechos Humanos, el Comité de Derechos Económicos, Sociales y Culturales, y el Comité contra la Eliminación de la Discriminación contra la Mujer), no me sorprendería ver que algún tribunal judicial pronto citara en su sentencia alguna resolución del CAC para fortalecer sus argumentos.
Por lo que ve a la democracia, ha quedado evidenciada la trascendencia que pueden llegar a tener las decisiones de Facebook y de dicho CAC. Basta con ver el bloqueo reciente a Maduro, al Ejército de Myanmar y a Donald Trump, así como las reacciones de los líderes políticos del mundo a tales acciones, para apreciar la importancia. De hecho, el bloqueo de las cuentas de Donald Trump, a raíz de lo sucedido este 6 de enero en el Capitolio, está siendo analizado por el CAC. Quizá el sentido y el impacto de la decisión de ese caso nos de más luz sobre el CAC y su futuro.
Diego Romero Rivero. Licenciado en derecho por la Universidad Anáhuac. Candidato a maestro en derechos humanos y garantías por el ITAM. Asociado en Askenazi Abogados, S.C. Twitter: @diegoromeror
1 Para mayor información, sobre la forma en que fue concebido y los mayores retos en el desarrolla del OversightBoard, véase: Kate Klonick, “Inside the Making of Facebook’s Supreme Court”, en The New Yorker. Asimismo, se recomienda el podcast elaborado por The New Yorker Radio Hour, en colaboración con Radiolab.
2 Consistente en la posibilidad de terceros considerados “amigos de la Corte” de presentar argumentos frente a órganos judiciales respecto a un determinado caso con la intención de que este sea resuelto en cierto sentido o estudiado desde una particular perspectiva.
3 Para una explicación más profunda sobre dicho principio, véase: Barak, Aharon, Proportionality. Constitutional Rights and their Limitations, trad. Doron Kalir, Nueva York, Cambridge University Press, 2012; Alexy, Robert, Teoría de los derechos fundamentales, trad. Carlos Bernal Pulido, Madrid, CEPC, 2007.
4 En el primer caso que resolvió, Facebook removió un comentario, pero el usuario eliminó el comentario que sería materia de estudio, y el CAC consideró que, toda vez que no podría.
5 La decisión completa puede consultarse en: https://oversightboard.com/decision/FB-I2T6526K/
6 La decisión completa puede consultarse en: https://oversightboard.com/decision/FB-QBJDASCV/
7 La decisión completa puede consultarse en: https://oversightboard.com/decision/IG-7THR3SI1/
8 La decisión completa puede consultarse en:https://oversightboard.com/decision/FB-2RDRCAVQ/
9 La decisión completa puede consultarse en:https://oversightboard.com/decision/FB-XWJQBU9A/
10 La decisión completa puede consultarse en: https://oversightboard.com/decision/FB-R9K87402/