A finales del año pasado, Facebook echó a andar uno de sus experimentos más ambiciosos y controvertidos: su Consejo Asesor de Contenidos (Oversight Board for Content Decisions), cuyo principal propósito consiste en seleccionar y revisar un determinado número de las apelaciones de los usuarios de esta plataforma de Internet respecto sus decisiones de contenido. En los últimos meses, esta especie de Corte Suprema de Facebook ha emitido sus primeros fallos y pronto tendrá que resolver si la decisión de cancelar la cuenta de Trump en esta plataforma fue atinada y, en su caso, si debe ser definitiva. Pero, en concreto, ¿cómo funciona esta institución? ¿Cuál es el alcance de sus decisiones? ¿Qué implica que este tribunal internacional privado defina la libertad de expresión? Estas y otras preguntas animaron la siguiente conversación entre el editor de este espacio y dos expertos en plataformas de Internet y libertad de expresión.

Ilustración: David Peón
Saúl López Noriega: ¿Qué es el Consejo Asesor de Contenidos de Facebook?
Leopoldo Maldonado: Gracias por la invitación Saúl. Es un espacio de expertas y expertos independientes facultados por Facebook para revisar decisiones difíciles sobre moderación de contenidos dentro de la plataforma. El Consejo Asesor de Contenidos (CAC) busca con independencia de criterio respecto a las plataformas de redes sociales como Facebook e Instagram, incorporar la normatividad internacional en materia de libertad de expresión para revisar decisiones que, en primera instancia, pudieran ser controversiales en lo que respecta a la suspensión o supresión, ya sea permanente o temporal, de contenidos y cuentas de usuarios. Es importante recalcar que el CAC no busca ser una extensión de los procedimientos internos de moderación en Facebook, sino un órgano independiente que revise y decida sobre un número reducido de casos emblemáticos.
Karla Prudencio: Primero, gracias por la invitación a compartir algunas reflexiones sobre estos temas. Coincido con la definición de Leopoldo sobre qué es un CAC. Creo que vale la pena mencionar que este CAC se crea como respuesta a una demanda de la sociedad para que las plataformas sean más transparentes y rindan mejores cuentas sobre las decisiones que toman en cuanto a la moderación de contenidos y que pueden afectar a la libertad de expresión. En el caso de Facebook, como comenta Leopoldo, existen procedimientos internos de moderación de contenidos, pero estos no estaban siendo los más adecuados (o no eran suficientes) para responder a tantas y distintas problemáticas. Problemáticas que parten de no tener una estructura independiente (quién toma estas decisiones) y de que la estructura que tienen resulta en muchos errores (cómo se toman). Con sus políticas tradicionales, las plataformas suelen pecar de censurar expresiones, cuando son muy cautelosas y eliminan de más, o suelen permitir contenido que puede ser dañino para la libertad de expresión, eliminando de menos. La creación del CAC es sólo un intento -de muchos- por resolver estas problemáticas.
SLN: Uno de los aspectos del debate que ha suscitado este CAC, gira en torno a sus alcances institucionales. Es decir, no pocos consideran que, en realidad, este CAC carece de dientes para enfrentar los retos de la moderación de contenidos en línea. ¿Están de acuerdo? ¿Qué otras facultades, en su caso, se le pudieron haber otorgado para robustecer su poder de decisión en términos temáticos y procesales?
KP: Creo que, como en todos los casos, siempre habrá un grupo de personas que son más escépticas del poder o del alcance que pueden tener estos mecanismos de autorregulación. La primera crítica, como bien mencionas, Saúl, es que no es un mecanismo de regulación estricto (al final no es un mecanismo de regulación estatal) y, por lo tanto, carece de la fuerza necesaria para resolver los problemas centrales del ejercicio de la libertad de expresión en Internet. Estoy de acuerdo con esta aseveración, pero sólo en parte. Definitivamente no va a resolver todos los problemas que existen respecto a la moderación en línea (primero por su limitado poder jurisdiccional), pero no le pidamos peras al olmo. Creo que uno de los problemas está en pensar que hay una solución unidimensional y que ésta va a ser sencilla, es decir, siempre tendremos soluciones que nos obligan a hacer análisis costo-beneficio. En lo personal, me preocupan más las dificultades prácticas que va a tener el CAC, por ejemplo, por el volumen de casos que existen en la actualidad, pero no son problemas que se resuelvan necesariamente con más o mayores facultades.
LM: Estoy de acuerdo con Karla en que esta es una manera de resolver el problema ante una multiplicidad de opciones que se tienen a la mano. Finalmente, hay varios factores que pueden ayudar a diluir un poco el escepticismo. Muchos de los y las integrantes nombradas han contribuido significativamente a la protección de la libertad de expresión y otros derechos fundamentales a nivel mundial. Con su reputación en juego, cabe esperar que el CAC trabaje para que Facebook rinda cuentas, y que la libertad de expresión esté mejor protegida en la plataforma. Por otro lado, el CAC es una especie de experimento que vale la pena observar, sin duda puede desbordarse con una gran cantidad de casos, pero el propio CAC tendrá que marcar la pauta de sus métodos, alcances y formas de trabajo. En este sentido, dada la naturaleza del CAC, se limita a las decisiones relacionadas con la moderación de contenidos. No perdamos el ojo en ello, porque hay cuestiones adyacentes que afectan la propia dinámica de Facebook y que el CAC no revisa (por ahora) como el impacto de las redes sociales en la libertad de expresión, como el modelo de negocio de Facebook, la promoción de contenidos o el downranking y, al menos por ahora, la publicidad política. Todo eso está fuera de su mandato y también afecta la conversación pública. No es menor la función que desempeña ahora, si bien es un factor mediante el cual Facebook busca adquirir cierta legitimidad, lo que está realmente en juego es el propio modelo de autorregulación en redes.
SLN: Perdón por insistir en el tema, pero hay quienes consideramos que el problema central de las redes sociales gira en torno a la distribución algorítmica de las expresiones que circulan en ellas para efectos de personalizar el contenido y, a partir de ahí, monetizar la atención de sus usuarios. Ese es el corazón de su modelo de negocio y, a juicio de no pocos, el motor de la era de desinformación que vivimos. Es decir, antes también había noticias falsas, conspiraciones y descalificaciones a las verdades científicas sin pruebas duras, pero ahora se esparcen con una potencia inédita en la historia de la humanidad. En este sentido, ¿no es acaso el CAC una estrategia de Facebook para meramente legitimarse ante los escándalos que le han estallado desde el 2016 y, de esta manera, evitar una eventual regulación estatal? En breve, ¿es un florero este CAC?
LM: Es claro que no es una solución definitiva a la problemática. Efectivamente el CAC no toca el modelo de negocios y eso reduce mucho la capacidad de decisión sobre el verdadero problema en materia de contenidos, donde prevalece una lógica económica a una lógica del ejercicio de derechos. Puede ser una manera de legitimarse pero también responde a la gran presión social y política que está teniendo para mejorar en moderación de contenidos. Lo ideal es crear consejos de redes sociales por fuera de las empresas. El elefante en la sala es la dominancia de mercado que tienen estas plataformas y su funcionamiento como gatekeepers que no permite entrar a otros actores o proyectos. Al controlar tanto el alojamiento de contenidos en una plataforma como las decisiones sobre la moderación de esos contenidos, las empresas pueden ejercer un poder enorme y, en gran medida, irresponsable sobre lo que decimos en línea, y se impide la entrada en el mercado de alternativas que podrían ofrecer una mejor protección de nuestros derechos. También debemos considerar que hay modelos probados de moderación de contenidos que apuestan a la descentralización de las decisiones para evitar el control de una empresa o un órgano de la empresa. Mediante la descentralización y la desagregación de funciones (que otras empresas hagan la moderación de contenidos, por ejemplo) puede reducirse esa capacidad de controlar o manipular la narrativa. Esto, por lo pronto, no lo va a aceptar Facebook porque sería perder el control de mercado. Pero nada de esto está enteramente probado. Estamos entrando a una etapa completamente novedosa en la construcción de las redes sociales.
KP: Me encanta la oportunidad de profundizar en el tema, porque aunque parece la misma pregunta, siento que es muy distinta. La primera se centraba en si el CAC tiene suficientes facultades para resolver los problemas de la moderación de contenidos en línea. Al contestar que no le pidiéramos peras al olmo me refería a que justamente no es una bala de plata. Es un ejercicio de autorregulación interesante, pero definitivamente insuficiente (que todavía tendrá que probar su efectividad dentro de su muy limitada funcionalidad). Sin embargo, creo que su insuficiencia no tiene que resolverse dando más poder a esta institución. ¿Por qué? porque las plataformas no son, ni deberían ser, sustitutos de instituciones democráticas o de organismos protectores de derechos humanos. El CAC no debería resolver problemas que son materia de Estado, como lo es el poder de mercado que tienen esas plataformas, que menciona Leopoldo. Para eso se tienen que aplicar leyes en materia de competencia. ¿Es una estrategia para legitimarse? Tal vez. Pero lo que no podemos perder de vista es que eso sólo resuelve una parte (muy chiquita) del problema de la libertad de expresión en línea. El papel del CAC, al final, se reduce en aplicar más justamente las políticas de moderación de contenidos de las empresas, nuestros derechos como personas usuarias de Internet no son renunciables ni los mecanismos para hacerlos valer privatizables.
SLN: Esto me lleva al que, en mi opinión, es el tema central en el actual debate sobre las plataformas de Internet: su poder. Se trata de empresas que prácticamente no tienen controles ni estatales ni democráticos, como bien apuntaba Karla. Estamos, entonces, ante un escenario inédito: una especie de Corte Suprema global, que responde a una empresa privada y, sin ninguna legitimidad democrática, adopta decisiones que afectan la situación normativa de millones de personas; es decir, resuelve problemas de derechos públicos, como es precisamente la libertad de expresión. ¿Es momento, entonces, de pensar ya en una regulación estatal mucho más agresiva? No sugiero, por supuesto, un Internet atado a una raíz autoritaria como es el caso de China. Pero entre este y el modelo de Silicon Valley, caben un sinfín de grados y matices de enorme utilidad para repensar Internet desde el ámbito público estatal. ¿Cuál es su postura al respecto?
KP: Como siempre, esta es la pregunta del millón. Tenemos un diagnóstico que nos deja con una suerte de, entonces, ¿qué hacemos? No quisiera evadir contestando con la clásica abogadiña del depende, pero es que no hay respuestas sencillas y sinceramente no creo que existan soluciones perfectas. Como dices, todo es cuestión de matices. Primero, para empezar con el final de tu pregunta, creo que Internet no se tiene que repensar desde el ámbito público estatal. O, por lo menos, no solamente desde ahí. El modelo de múltiples partes interesadas que ha gobernado Internet es muy valioso y, si algo debemos conservar, es la riqueza y la pluralidad del debate. Tampoco quiero ser ingenua. Creo que gran parte de la solución tiene que venir de la regulación estatal: en privacidad, en neutralidad de la red y, por supuesto, en competencia económica, por ejemplo. Pero no creo que una solución sostenible venga solamente desde este ámbito, sino de una mezcla de distintos modelos y herramientas (incluyendo herramientas de autorregulación, de arquitectura de red, tecnológicas y de mercado). Tenemos que pensar fuera de la caja y poner al centro la justicia social, no los modelos de negocio. Ya Leopoldo mencionaba muy buenos ejemplos de estrategias distintas a las meramente estatales, como lo son los consejos de redes sociales, un modelo intermedio que permite la rendición de cuentas y en el que participan múltiples partes interesadas. Tenemos que avanzar en dirección a estas iniciativas, a la par de que fortalecer algunas herramientas de regulación estatal.
LM: Coincido plenamente con Karla, hay que alimentar el modelo de gobernanza intersectorial. Creo que el tema detrás es ¿regular qué? Como nos dice Karla, hay una multiplicidad de temas: neutralidad de la red, uso de datos personales, competencia o, respecto al tema que nos ocupa (CAC), moderación de contenidos. También coincido que hay diversos modelos y una serie de matices antes de llegar a regulaciones estatales duras o blandas. Por ejemplo en temas antimonopolios no hay opción: es el Estado, y por ejemplo en Estados Unidos ya tomaron cartas en el asunto al demandar por prácticas monopólicas a Google y Facebook. En el caso de contenidos, como ya se ha dicho en el caso de medios de comunicación tradicionales, es peligroso que el Estado regule y pueda arrogarse facultades excesivas para determinar qué se publica y qué no. Yo creo que ahí el tema es que si hay algún abuso en el ejercicio de la libertad de expresión, el Estado puede intervenir a través de las instancias judiciales bajo un régimen de responsabilidades ulteriores en contra de quien emite el mensaje, no de quien lo aloje en su plataforma. Es importante también mantener el principio de no responsabilidad de intermediarios por los contenidos de terceros. Ojo, muchas veces quiere disfrazarse como regulación de redes (que tiene muchas facetas y aspectos) lo que en realidad es regular contenidos. Por otro lado, a veces parece que ponerle el prefijo ciber a cualquier conducta que dé pie a una responsabilidad (penal, administrativa o civil) conjura cualquier daño que se pueda provocar en el ámbito social desde la red. Y, en realidad, lo que se termina regulando (o castigando en caso de ciertos ciberdelitos) es el medio (Internet) y no el resultado.
SLN: Ahora bien, como se sabe, el diseño inicial de Internet partía de una arquitectura inédita de protocolos abiertos encaminada a establecer una red libre y global; sin embargo, este diseño tecnológico estaba abierto a varias opciones para su ulterior desarrollo. En este sentido, hay quienes consideran que el problema es de origen -con independencia del variopinto abanico de regulaciones y co-regulaciones que habría que impulsar- y, por tanto, según esta postura, hay que repensar la plataformización misma de Internet. ¿Están de acuerdo? Es una pregunta vasta y compleja, pero ¿imaginan otra infraestructura de Internet viable y mejor que la actual?
LM: De acuerdo, hay que repensar el camino que está tomando esta red de redes pensada en principio y por principio a ser libre e incluyente. La plataformización per se no es mala, pero ha ido tomando formas poco deseables respecto cómo recaban datos personales, trazabilidad de datos, etc. Vale recordar que hay otros modelos de plataformas que pueden servir para el empoderamiento ciudadano y, a su vez, abrir espacios para buscar formas de colaboración novedosas en aspectos económicos, políticos o sociales. Más bien creo que el uso y abuso de ciertas características de las plataformas, más que su propia naturaleza, es la que debe prender las luces de alerta. Las plataformas desde una perspectiva horizontal y colaborativa pueden empujar o materializar ese potencial democrático de Internet, acabando, por ejemplo, con la intermediación, generando alianzas entre distintos actores, en distintas regiones que antes eran impensables. Como conclusión sería mantener la naturaleza (por lo menos a nivel de objetivo y guía) de flujo abierto, interoperabilidad, descentralización, inclusión.
KP: Qué buena y difícil pregunta. Es literalmente lo que me mantiene despierta en las noches. Coincido con Leopoldo en que la naturaleza de las plataformas per se no es el problema. Sin embargo, una arquitectura que se pensó para generar un modelo abierto, libre y descentralizado, por alguna razón no lo está siendo. Creo que en muchos casos sí tiene que ver con los modelos de gobernanza, pero ¿y si no? Considero que no le hemos dado suficientes vueltas a cómo la arquitectura de red puede habilitar el ejercicio de ciertos derechos. Incluso si pensamos en la capa de infraestructura (que normalmente es olvidada en estas discusiones). Cómo colocamos la red –tal cual los fierros– puede hacer que las personas usuarias estén más o menos involucradas en el proceso. ¿Esto afectará cómo ejercen su derecho a la libertad de expresión y la percepción de que pueden construir contenidos? Yo creo que sí. Vemos ejemplos muy claros de esto, proyectos de redes comunitarias en Argentina o en México que resuelven el problema de conectividad creando sus propias infraestructuras. Creo que esto también es parte de la arquitectura de red. Lo difícil es imaginarnos otras arquitecturas en otras capas que sean congruentes con la esencia y los principios fundamentales de Internet. Pero siento que tenemos la tarea de seguir soñando.
SLN: Me quedo con una buena batería de preguntas en el tintero y, por supuesto, espero que sea la primera de varias conversaciones, antes de concluir quiero agradecer mucho su entusiasmo y participación en esta dinámica. Para cerrar, ¿cómo consideran que debe resolver este CAC el caso de la cancelación de la cuenta de Trump? Un sector de la academia opina que se debe ratificar tal cancelación pues con sus mensajes en redes sociales, este personaje puso y podría volver a poner en riesgo las condiciones de la conversación democrática; otro, por su parte, piensa que si se confirma esta decisión se sentaría un mal precedente: que un poder, ilegítimo y sin controles estatales, impida a un gobernante democrático, o a una persona con legítimas aspiraciones de volver a competir en la arena electoral, establecer comunicación directa, libre de cualquier mediación, con la sociedad. ¿Cómo resolverían este asunto?
KP: Otra compleja. Creo que, de alguna manera, los dos lados tienen algo de razón, pero responden a preguntas distintas. Si el mensaje puso en riesgo o no la conversación democrática podría ser la pregunta que tendría que resolver el CAC si fuera realmente una institución pública democrática (es decir el fondo). Si esa es la pregunta mi respuesta sería sí, sí pone en riesgo la discusión democrática. Sin embargo, en este caso creo que lo más importante es pensar en la forma, que responde un poco más a la segunda postura, ¿tendría Facebook que tomar estas decisiones? ¿Es una instancia legítima? ¿Por qué en este caso sí y en el de Birmania no? El problema procesal me parece mucho más importante y creo que estamos lejos de resolverlo. De entrada me parece que la prohibición es selectiva, pues Facebook no ha actuado de la misma manera en otros lugares del mundo. En este caso es Trump y, la mayoría de nosotros, no comulgamos con su discurso. Pero, ¿si fuera alguien con valores democráticos? ¿Qué contrapesos existen? Como mencioné anteriormente, creo que tenemos que quitarle el poder a estas plataformas de tomar decisiones que tienen graves implicaciones en materia de derechos humanos. ¿Cómo hacer que el Estado intervenga en estos casos sin caer en todo lo que nos preocupa? Ahí está el reto.
LM: Aquí apelaría a la posición del enunciante, que en este caso era un jefe de Estado en funciones, azuzando a sus seguidores bajo alegaciones falsas de fraude, para que tomaran las instituciones democráticas. Vale la pena retomar el test de seis partes (contexto, posición de la persona oradora, extensión o alcance del discurso, contenido del discurso, intención e inminencia de daño) del Plan de Acción de Rabat (ONU, 2012). El cual establece que tipo de discurso de odio es penalmente relevante, pero que también sirve de guía para identificar estos discursos de incitación que pueden generar otro tipo de responsabilidades. A mí me parece que las plataformas deben ser más transparentes sobre lo que consideran discurso de odio o discurso violento, y esos criterios deben adecuarse a los estándares de derechos humanos. También creo que hay un elemento de oportunidad política que las plataformas aprovecharon para bajar los contenidos y cuentas de Trump, cuando lo pudieron hacer antes con otros discursos que se movían en los límites de la incitación a la discriminación y el odio. Sobre los hechos del pasado 6 de enero, no queda duda que se movió en terrenos que pusieron en riesgo el fundamento democrático mismo de la sociedad estadounidense. Tan es así que se activó un segundo impeachment. El problema con las plataformas radica en la falta de transparencia sobre sus criterios y métodos de moderación de contenidos, la falta de reglas claras (debido proceso) para la activación de dichos mecanismos en perjuicio de algún usuario y la poca claridad en los mecanismos de apelación. El tema de censura a un jefe de Estado me causa ruido. La verdad es que cuentan con un sinfín de mecanismos y canales de comunicación, tienen un megáfono privilegiado que no se limita a las plataformas de redes sociales. En términos de discurso y de su derecho a la libertad de expresión, es importante remitirse a la jurisprudencia interamericana y europea en la materia que dice: “sí, detentan el derecho de manifestar ideas, es hasta necesario en su posición que hablen y se expresen como un mecanismo de información a la sociedad… pero también tienen la calidad de garantes de derechos de otras personas, entonces hay responsabilidades con lo que dicen, por ello sí tienen obligación de dar información veraz, oportuna, y sobre todo, no socavar con sus dichos los derechos de las personas a las que gobiernan ”.
* Nota: esta conversación se realizó el miércoles 3 de marzo de 2021, de manera no presencial, y se editó mínimamente para su mejor lectura.
Saúl López Noriega. Profesor titular del CIDE y editor de El juego de la Suprema Corte. Twitter: @slopeznoriega.
Leopoldo Maldonado. Director Regional de Artículo 19 México y Centroamérica. Twitter: @PoloMaldonadoG.
Karla Prudencio. Profesora asociada del CIDE y responsable de Incidencia Política en Redes por la Diversidad, Equidad y Sustentabilidad A.C. Twitter: @lalaprudencio.