Por fin, después de mucha alharaca en medios de comunicación, el senador Ricardo Monreal presentó su iniciativa de reforma legislativa sobre redes sociales. Sin duda, uno de los retos de las democracias contemporáneas consiste en cómo atemperar los efectos perniciosos de las plataformas de Internet en el discurso público. Se trata de un acertijo que al día de hoy nadie ha logrado resolver a cabalidad. El debate está abierto. Y, en este sentido, México debe participar en esta discusión, desde la academia, la sociedad civil y, por supuesto, también desde los centros de decisiones públicas.
El problema estructural, sin embargo, de esta iniciativa es que parte de un fundamento erróneo. Por supuesto, la libertad de expresión y el derecho a la información son claves para las sociedades democráticas. La exposición de motivos, prácticamente en su totalidad, se aboca a subrayar la relevancia de la relación entre estos tres elementos: expresión, información, democracia. No obstante, precisamente el fenómeno del Internet –esto es, su impacto en la reducción del costo de la expresión que a su vez resultó en un exceso de ésta y, de ahí, la necesidad de nuevos intermediarios para moderar estos grandes volúmenes de información, junto con el modelo de negocios de estas plataformas anclado en la extracción de datos de sus usuarios– ha sido de tal magnitud que ha trastocado los fundamentos mismos de la libertad de expresión así como su intrínseca relación con el régimen democrático. Plantear un esquema regulatorio de las redes sociales debe partir de ahí: cómo reinventar la libertad de expresión en el mundo digital. Y evitar extrapolar soluciones de antaño, que tal vez funcionaron bien en su momento, pero que difícilmente pueden ser útiles ante una nueva arena de batalla por el discurso público en línea.

Ilustración: David Peón
En este sentido, la iniciativa del senador Monreal parte de una ignorancia de raíz: en el fondo, el surgimiento de las plataformas de Internet significa una nueva lógica de la expresión en la historia de la humanidad y, en última instancia, del conocimiento. Y, por ello, las plataformas de Internet ofrecen una respuesta inédita a una pregunta medular para una democracia: cómo identificar qué información es relevante para la sociedad y cómo distribuírsela sin caer en errores, prejuicios o manipulación. Existe una fundada insatisfacción respecto la respuesta que han dado las redes sociales a esta cuestión en los últimos lustros.1 La propuesta del senador Monreal nace de esta frustración, mas no está acuerpada por el conocimiento pertinente para entender Internet y las opciones realmente viables para realizar ajustes en éste. Este es el origen del resto de los errores que saltan a lo largo de la iniciativa y que a continuación apunto:
1) La iniciativa define las redes sociales como aquellas “…cuya funcionalidad principal es difundir dentro de la plataforma información generada por sus propios usuarios como texto, datos, voz, imágenes, videos, música, sonidos o combinación de las anteriores, con la finalidad de informar, entretener o educar”.
Esta noción de plataforma de Internet es tan amplia que en ella caben desde videojuegos en línea, mensajería como Whatsapp, pasando por Instagram y YouTube e, inclusive, plataformas como Yelp que se dedica principalmente a albergar reseñas de sus usuarios de restaurantes y otros servicios.
En este sentido, vale apuntar que para regular las plataformas de Internet hay que tener claro que éstas tienen diversas funciones, servicios o lados que conectan a diferentes actores o grupos con intereses comunes (matchmakers). Por ejemplo, en un apretadísimo recuento, Facebook nació en febrero de 2004 conectando dos lados: quienes querían compartir contenidos y aquellos que deseaban recibirlos. A mediados de 2004, esta red social sumó un lado más al empezar a vender publicidad. Tres años después, en mayo de 2007, Facebook anunció una plataforma de software que los desarrolladores podían usar para crear aplicaciones tales como juegos. Esto hizo que se volviese una plataforma que conectaba ya cuatro lados. Entonces, creó un quinto y un sexto lado al permitir a las empresas configurar páginas de marca y, a su vez, al crear su aplicación Messenger para enviar y recibir mensajes de manera instantánea entre sus usuarios.2
En cada uno de estos lados, Facebook permite que diferentes actores se conecten y compartan contenidos con fines lúdicos, comerciales e informativos, ¿en verdad esta iniciativa pretende regular cada uno de estos servicios?
2) Esta iniciativa define a su vez las redes sociales relevantes como: “Aquellas que cuentan con un millón o más suscriptores o usuarios, motivo por el cual es capaz de generar un impacto mayor en procesos de comunicación social y en la esfera jurídica de los ciudadanos”.
Sin embargo, en ningún momento ofrece una razón para trazar la línea entre una red social relevante en un millón de usuarios. ¿Por qué es mejor, para medir el tamaño de las plataformas de Internet, utilizar el criterio de usuarios en vez del de las ganancias anuales? ¿Cuál sería, entonces, la diferencia entre una red social de apenas un par de millones de usuarios y Facebook? ¿Este número de usuarios se refiere al ámbito propio de nuestro país o a nivel global? Como referencia en el proyecto de la Digital Services Act, el umbral para que una plataforma sea relevante es de 45 millones de usuarios o 10% de la población de la Unión Europea.
Por otra parte, esta iniciativa establece una serie de obligaciones para las plataformas relevantes que implicarían un costo económico significativo para éstas; propiciando que aquellas que ya tienen una posición económica sólida no tengan mayores dificultades para solventar estas nuevas exigencias, pero no necesariamente aquéllas que apenas se abren camino en el mercado. Lo cual, por supuesto, obstaculizaría la competencia. Esta iniciativa, entonces, implicaría que los costos propios de la regulación que plantea resultarían muy difíciles, o imposibles de sortear, para las plataformas más pequeñas, lo que podría configurar una barrera a la entrada.
3) La iniciativa faculta al Instituto Federal de Telecomunicaciones (IFT) para autorizar a las redes sociales relevantes a que presten sus servicios, delegándole a este organismo, salvo un par de excepciones, la tarea de definir los lineamos para que proceda la autorización.
Aquí el error reside en que, por un lado, sin fijar criterios claros para la autorización abre la puerta para una eventual censura previa y, por el otro, el IFT carece de facultades para realizar esta tarea. En efecto, de acuerdo al texto constitucional y legal, este organismo tiene como principal objetivo el desarrollo eficiente de los servicios de radiodifusión y telecomunicaciones. Sobra mencionar que si bien el modelo de negocios de una plataforma como Twitter, por ejemplo, parte de que los usuarios tengan acceso a Internet, esto no significa que el acceso a éste sea necesariamente mediante el espectro radioeléctrico y, por tanto, tampoco se puede considerar que Twitter sea concesionario. Igual, es una obviedad pero mejor subrayarlo: las plataformas de Internet en principio no prestan el servicio de acceso a Internet.
4) Las redes sociales relevantes autorizadas podrán establecer un procedimiento para suspender o cancelar la cuenta de un usuario o para bajar un determinado contenido, el cual debe ser aprobado a su vez por el IFT. Entre las causas autorizadas para suspender/cancelar una cuenta, la iniciativa menciona la difusión de contenido con noticias falsas, que ataque a la moral y al orden público, afecte a derechos de los menores de edad, perturbe el orden público, con mensajes de odio, etcétera.
Aquí es necesario un par de comentarios. Por un lado, varios de estos criterios ya están incluidos en prácticamente cada uno de los estándares comunitarios de las plataformas, la discusión gira en torno a cómo, cuándo y respecto a quién sí los aplican. Es decir, no se trata de que las plataformas no tengan reglas sino la calidad de éstas y si siempre las aplican.
Por otro lado, la iniciativa que busca domesticar el poder de las plataformas de Internet a partir de la libertad de expresión, les permite a éstas determinar si mantiene o no un contenido o una cuenta a partir de lineamientos idóneos para la arbitrariedad: ¿Qué es perturbar el orden público? ¿Atacar a la moral? Esto, en realidad, incrementa de manera sustancial el poder de las plataformas, pues, si bien la iniciativa exige que éstas tengan a su vez un procedimiento para que los usuarios puedan inconformarse ante alguna decisión respecto una cuenta o contenido, lo cierto es que por el volumen de expresiones que circula por las plataformas, del universo que eliminan o bajan es muy reducida la porción que inicia un procedimiento de queja.
5) Uno de los problemas clave en la moderación de contenidos es aquellas expresiones que las plataformas impiden subir. Es decir, ese contenido que es rechazado por algún operador humano, siguiendo los manuales de la empresa en cuestión, durante el proceso de subir el texto, imagen o video. Esta tarea, que es la primera etapa de la moderación de contenidos, la realizan por lo regular personas en países en desarrollo que son subcontratados para ese propósito y cuya función es convertirse en el primer intermediario de contenidos en línea. Algo respecto lo que la iniciativa no dice absolutamente nada. Lo cual no es menor pues en no pocas ocasiones es más relevante el contenido que las redes sociales impiden que se suba a ellas, que el contenido que eventualmente eliminan.3
6) La iniciativa menciona que las plataformas autorizadas podrán utilizar algoritmos para suspender cuentas de sus usuarios, mas el uso de esta tecnología no sería procedente para cancelarlas de manera definitiva.
Este es un excelente ejemplo para evidenciar la falta de conocimientos de la iniciativa, toda vez que la moderación de contenidos que realizan las plataformas en su mayoría se realiza por humanos. Si bien ha habido grandes avances en la ciencia de datos para moderar contenidos de manera automatizada, su margen de error sigue siendo sumamente amplio para la escala de decisiones que se tienen que tomar minuto a minuto. Por ello, en el corto y mediano plazo, los algoritmos no serán decisivos en la moderación de contenidos. Como bien señala, Tarleton Gillespie, uno de los mejores expertos en este tema alrededor del mundo: estos sistemas de moderación automatizada no son muy buenos todavía.
Esto no disminuye los logros de quienes desarrollan estas herramientas. La detección automatizada no es una tarea fácil, posiblemente sea imposible, dado que el contenido ofensivo depende de manera crítica tanto de la interpretación como del contexto. Los algoritmos de detección de última generación tienen dificultades para discernir el contenido o el comportamiento ofensivo incluso cuando saben con precisión lo que están buscando, cuando pueden comparar una imagen con una base de datos de violaciones conocidas o pueden escanear en busca de blasfemias o difamaciones raciales específicas. Pero la detección se vuelve mucho más complicada cuando las plataformas intentan identificar si algo es pornografía o discurso de odio, sin poder relacionarlo con un corpus de ejemplos. Se han aplicado técnicas de aprendizaje automático a este problema de identificación y categorización de contenido ofensivo en las redes sociales, pero existen limitaciones fundamentales que pueden ser imposibles de superar por la falta de contexto, las tácticas evasivas de los usuarios y la naturaleza fluida de la ofensa. Sin resolver estos problemas, la detección automática produce demasiados falsos positivos; a la luz de esto, algunas plataformas y terceros están empatando la detección automática con la supervisión editorial, de manera que deben renunciar a algunos de los sueños de automatizar la moderación de contenido pero pueden acercarse a abordar el desafío de la escala.4
Las plataformas de Internet, no obstante, sí utilizan algoritmos con enorme provecho para la distribución de contenidos; es decir, los usuarios suben sus textos, imágenes, videos y audios. Pero, por la escala de contenido que suben, es indispensable que las redes sociales cuenten con un sistema de automatización que defina qué es relevante para todo el sistema en un momento dado (trending topics de Twitter) y para cada usuario (NewsFeed de Facebook). Este es el corazón de las plataformas de Internet. Y en donde, a mí parecer, está el centro del problema de desinformación que se ha presentado recientemente en diversos puntos del planeta a partir de las redes sociales.
En breve: el fenómeno de QAnon no se pueden entender sin la edición (distribución/potenciación) de contenido algorítmico de las plataformas. La iniciativa del senador Monreal, no obstante, es enteramente omisa al respecto. Es casi imposible que una jurisdicción no estadounidense tenga alcances en el algoritmo, por ejemplo, del NewsFeed de Facebook; no obstante, mediante un replanteamiento de los datos personales en el ámbito mexicano sí se podrían impulsar algunos ajustes.5
7) Pero justo esa es otra omisión no menor de la iniciativa, pues, no aborda el importante tema de los datos personales, sólo remite que la protección de éstos debe realizarse conforme a la legislación actual. Lo interesante es que los datos que extraen las plataformas de sus usuarios, junto con el algoritmo que editorializa el contenido que circula en ellas, son los ingredientes clave de su modelo de negocios y que permite la venta de publicidad personalizada —y, como se comentó, también la distribución de contenido de manera individualizada—. ¿Realmente las actuales reglas sobre datos personales son adecuadas para atemperar los efectos perniciosos de este modelo de negocios en el discurso público? ¿Por qué, entonces, esta iniciativa no aborda este aspecto crucial de las redes sociales?6
8) El procedimiento de las plataformas para resolver las impugnaciones —sea por suspensión o cancelación de cuenta o eliminación de contenido— debe resolverse en un plazo no mayor a 24 horas; prohíbe que este proceso se resuelva mediante algoritmos y, en caso de que la red social en cuestión no resuelva en esas 24 horas o el usuario no quede satisfecho con la resolución de la red social en cuestión, éste podrá acudir al IFT.
En primer lugar, el tiempo para que las plataformas resuelvan es muy reducido considerando el amplio abanico de supuestos para impugnar una decisión que elimina un contenido. En otros países, con requisitos similares, han determinado que las exigencias legales de las plataformas giran en torno a eliminar un contenido muy puntual: discurso de odio o aquél que incite a la violencia. En segundo lugar, con este planteamiento, se le da al IFT el carácter de órgano jurisdiccional encargado de definir los límites y alcances de ciertos derechos fundamentales, esto implica un cambio sustantivo en las principales tareas de este organismo; no obstante, en la iniciativa no se plantea un aumento de presupuesto ni tampoco se traza una dinámica para solventar estas impugnaciones que aseguren condiciones mínimas del debido proceso. Por último, la iniciativa se centra, en buena medida, en los peligros que conlleva suspender o cancelar la cuenta de un usuario de una plataforma de Internet, mas no hace la distinción entre la de un ciudadano privado y la de una figura pública –como puede ser un funcionario o un gobernante–. ¿Cuál debe ser el límite del poder de expresión que tiene un presidente de la República? ¿Si éste difunde un discurso que pone que pone en riesgo las condiciones de la conversación democrática, se le debería suspender/cancelar la cuenta? La iniciativa no dice nada al respecto, a pesar de que este es uno de los puntos neurálgicos del debate derivado de la cancelación de las cuentas del entonces presidente Trump.
Nota al calce: claramente la iniciativa parte de un desconocimiento respecto qué son, cómo funcionan y para qué sirven los algoritmos.
9) La iniciativa respecto el ámbito político electoral determina que el uso de redes sociales deberá ceñirse por los sujetos obligados en el ámbito político-electoral de acuerdo a lo que estable la Constitución y legislación correspondiente.
Un problema, sin embargo, es que el actual modelo de comunicación político-electoral, entre otros defectos, se centra en un solo lenguaje mediático: los spots. De ahí que desde que se estableció este modelo, las autoridades electorales han hecho malabares para justificar someter a escrutinio entrevistas y reportajes orquestados a modo como propaganda electoral, así como infomerciales en noticieros y publicidad integrada en programas como telenovelas. Esta iniciativa debió abordar, por lo menos, uno de los temas peliagudos del binomio publicidad digital y elecciones: ¿Se les debe permitir a las plataformas de Internet vender publicidad a los candidatos de un proceso electoral? ¿Es irrelevante si esta publicidad presenta información falsa? ¿A quién correspondería, en su caso, determinar la veracidad de la propaganda político-electoral en línea? Al respecto, la iniciativa es enteramente omisa.
10) Por último, contrario a lo que la misma iniciativa asegura, es probable que ésta viole disposiciones del T-MEC.
En efecto, en el artículo 19.7 de este tratado internacional, relativo a los servicios informáticos interactivos, se establece que ninguna de las partes adoptará o mantendrá medidas que traten a un proveedor de un servicio informáticos interactivo como proveedor de contenido de información para determinar la responsabilidad por daños relacionados tenido de información para determinar la responsabilidad por daños relacionados con la información almacenada, procesada, transmitida, distribuida o puesta a disposición por el servicio, excepto en la medida que el proveedor o usuario, en su totalidad o en parte, haya creado o desarrollado la información.
En este sentido, la iniciativa del senador Monreal, al establecer procedimientos ambiguos de retirada de información y cancelación de cuentas y una posible verificación del IFT y, por lo tanto, una posible responsabilidad para las plataformas de Internet, violenta lo establecido en este artículo al establecer indirectamente responsabilidades de estas plataformas sobre la información publicada por sus usuarios.
Es necesario apuntar que esta disposición tiene como origen la section 230 of the Communications Decency Act de Estados Unidos, que actualmente está en el centro del debate en este país, y que textualmente señala lo siguiente: “Ningún proveedor o usuario de un servicio informático interactivo será tratado como el editor o el publicista de la información proporcionada por otro proveedor de contenido de información.” Sobre este aspecto, considero que México no debió aceptar, sin ninguna acotación de por medio, la versión del T-MEC de esta cláusula; sin embargo, una vez firmado este instrumento internacional, claramente estamos obligados a cumplirlo y justo esta iniciativa pone en riesgo tal cumplimiento.
Falta esperar la suerte de esta iniciativa del senador Monreal en el Congreso, pero lo justo es mencionar que junto con esta batería de fallas sí ofrece un acierto de enorme relevancia: se trata de un excelente contraejemplo de una buena política pública en la materia y, en este sentido, puede convertirse en un buen punto de partida para enfrentar una asignatura pendiente en la conversación pública del país: entender cada vez más y mejor qué son las plataformas de Internet, sus riesgos puntuales para el discurso púbico democrático y las opciones viables para una eventual regulación sin chicotazos autoritarios e inoperantes.
Saúl López Noriega. Profesor e investigador de tiempo completo del CIDE. Twitter: @slopeznoriega.
1 Entre otras obras, sugiero: Zittrain, Jonathan, “A history of online gatekeeping” en Harvard Journal of Law & Technology, Vol. 19, Núm. 2, Primavera 2006, pp. 253-298; Balkin, Jack M. “Old-school/new-school speech regulation” en Harvard Law Review, Vol. 127, No. 8, Junio 2014, pp. 2296-2342; Wu, Tim, “Is the First Amendment Obsolete?” en The Knight First Amendment at Columbia University, serie de ensayos Emerging Threats, 1 de septiembre de 2017, consultable aquí; Klonick, Kate, “The new governors: the people, rules and processes governing online speech” en Harvard Law Review, Vol. 131, No. 6, abril 2018, pp. 1598-1670; Gillespie, Tarleton, Custodians of the Internet. Platforms, content moderation, and hte hidden decisiones that shape social media, Nueva York, Yale University Press, 2018; Suzor, Nicolas P., Lawless. The secret rules that govern our digital lives, Nueva York, Cambridge University Press, 2019.
2 Evans David S. y Schmalensee, Richard, Matchmakers. The new economics of multisided plataforms, Boston, Harvard Business Review Press, 2016; Cusumano, Michael A., et. al., The business of plataforms. Strategy in the age of digital competition, innovation and power, Nueva York, HarperCollins Publishers, 2019.
3 Gillespie, Tarleton, Custodians of the Internet, op. cit.
4 Ídem, p. 98.
5 Boczkowski, Pablo J., et. al. edit., Media Technologies: Essays on Communication, Materiality, and Society Nueva York, The MIT Press, 2014; Pomerantz, Jeffrey, Metadata, USA, The MIT Press, 2015; Alpaydin, Ethem, Machine Learning, USA, The MIT Press, 2016; Christian, Brian y Griffiths, Tom, Algorithms to Live By. The Computer Science of Human Decisions, Nueva York, Picador, 2017; Kelleher, John D. y Tierney, Brendan, Data Science, USA, The MIT Press, 2018; Kelleher, John D., Deep Learning, USA, The MIT Press, 2019; Louridas, Panos, Algorithms, USA, The MIT Press, 2020.
6 Wu, Tim, “Blind spot: the attention economy and the law” en Antitrust Law Journal, Vol. 82, No. 3, 2019, pp. 771-806 y Evans, David S., “Attention platforms, the value of content and public policy” en Review of Industrial Organization, Vol. 54, 2019, pp. 775-792.
Sr López … Excelente artículo. Francamente dudo que la iniciativa en cuestión sea del Sr Monreal, más bien parece de su jefe, y él la presenta. Les preocupa lo que dicen de ellos en las redes, eso puede hacerles perder votos.