El pasado 5 de octubre la Corte Suprema de Estados Unidos anunció que conocerá el caso Gonzalez v. Google en el que definirá el alcance de la sección 230 de la Communication Decency Act (CDA). Esta norma, en términos muy sucintos, permite que empresas como Google, Meta (empresa dueña de Facebook e Instagram), Twitter o TikTok tengan el poder de decidir qué contenidos pueden publicar sus usuarios en sus plataformas sin que se les pueda atribuir algún tipo de responsabilidad. La decisión que asuma la Corte puede cambiar drásticamente el hábitat en el que desarrollamos nuestra vida en línea. Las implicaciones pueden superar lo que sucede en las redes sociales y trascender a otros sitios que dependen del contenido creado por sus usuarios como Amazon en el área de comercio electrónico— o las tiendas de aplicaciones como Playstore y Appstorede Google y Apple. Por esa razón, es necesario explicar en qué consiste la sección 230 de la CDA y cuál es el contexto y las implicaciones del caso Gonzalez v. Google que se resolverá, con alta probabilidad, en el verano de 2023.

¿Qué es la sección 230?
Durante los noventa, época temprana del internet, el Congreso de Estados Unidos promulgó la CDA con la intención de regular el contenido que se exponía en las páginas de internet y prevenir que las personas menores de edad tuvieran acceso a material sexualmente explícito en línea.1 En el proceso de creación algunos congresistas pugnaron por establecer una cláusula de inmunidad que impidiera que las plataformas de internet fueran responsables por el contenido publicado por sus usuarios y, de esta manera, incentivar a estas empresas a adoptar modelos de autorregulación para que ellas mismas fueran las que voluntariamente supervisaran el contenido de sus sitios y bloquearan el material que consideraran ofensivo.
La intención de dotar de inmunidad a estas compañías era combatir los efectos perniciosos de dos casos resueltos por cortes federales (Cubby, Inc. v. CompuServe, Inc y Stratton Oakmont, Inc v. Prodigy Service Co.) en los cuales se estableció que las plataformas de internet serían responsables en casos de difamación por las publicaciones de sus usuarios si se demostraba que éstas llevaban a cabo un control editorial sobre el contenido publicado en sus sitios. En otras palabras, si intervenían en el contenido, entonces podían ser sujetos a sanciones. Esto provocó que las páginas de internet no tuvieran incentivos suficientes para moderar los contenidos publicados en sus sitios, aunque fueran ofensivos o estuvieran fuera de los límites de la libertad de expresión.2 Después de múltiples negociaciones, esta cláusula de inmunidad fue incorporada en la CDA bajo la denominación de sección 230.3 Un año después, la Corte Suprema de Estados Unidos anuló la gran mayoría de las secciones de la CDA por resultar violatorias de la primera enmienda,4 sin embargo, la sección 230 subsistió y hasta el día de hoy se mantiene vigente.
Cabe precisar que la sección 230 no sólo busca privilegiar a las plataformas digitales. Por el contrario, esta norma ha permitido maximizar los alcances de la libertad de expresión en el ciberespacio. Por un lado, como señala Jack Balkin, sin una cláusula como la sección 230, se podría imponer un modelo regulativo en el que los usuarios serían víctimas de censura colateral.5 Esto ocurriría, por ejemplo, si en lugar de ofrecer inmunidad, el Estado obligara a estas empresas, bajo un modelo de sanciones económicas, a controlar en todo momento el contenido que publiquen sus usuarios. En ese supuesto, las empresas preferirían bloquear o censurar todo aquel contenido que le pueda representar una sanción, sin que su proceso de decisión sea cuidadoso y mostrar deferencia a la libertad de expresión de sus usuarios. Por otro lado, como argumenta Kate Klonick, sin una cláusula de inmunidad se podría adoptar un modelo en el que los usuarios sólo podrían publicar contenidos hasta que la empresa decida aprobar la publicación, ya sea mediante uno de sus empleados o de forma automatizada a través de algoritmos.6
Problemas de la sección 230
Sin embargo, a pesar de su valía para la libertad de expresión, esta cláusula de inmunidad está lejos de ser perfecta. Con el paso del tiempo, las fuerzas que rigen internet han cambiado de forma diametral y lo que vivimos hoy no tiene nada que ver con lo que pasaba en los noventa. Hoy, unas cuantas empresas concentran a la gran mayoría de los usuarios y compiten entre ellas por lograr que éstos inviertan la mayor cantidad de tiempo en sus plataformas. En ese contexto, la inmunidad que les otorga la sección 230 se ha convertido en la piedra angular de su modelo de negocio, pues para lograr captar la atención de sus usuarios por el mayor tiempo posible, las plataformas buscan que el contenido que muestran coincida con las expectativas del usuario y hacer que su experiencia sea más amena.7 Esto implica necesariamente excluir todo aquel contenido que incomode al usuario y provoque el riesgo de perder visualizaciones e ingresos.8 Este modelo ha provocado que el derecho de los usuarios a expresarse y decidir qué información publican y consumen está sujeto a las políticas, términos y condiciones fijadas por estas plataformas y, en última instancia, a sus propios intereses económicos,9 de tal suerte que hoy estas empresas tienen el poder de controlar narrativas y moldear preferencias-10 Es cierto que estas compañías no han adoptado abiertamente políticas que sean frontalmente contrarias a los derechos de sus usuarios. Por el contrario, han buscado activamente crear condiciones favorables para la libre expresión con el objeto de garantizar mayores ganancias.11
Sin embargo, la imposibilidad de fincarles responsabilidades por las decisiones que toman impide que exista un contrapeso a ese gran poder. Esto ha suscitado críticas ante la incapacidad de esas empresas para hacer frente a discursos polarizadores y extremistas, más aún cuando ese tipo de contenidos puede traducirse en ganancias para esas empresas. Como señala David Kaye: “un internet centralizado y dominado por los intereses corporativos de la publicidad, la recolección y procesamiento de datos y la búsqueda de viralidad constituye […] un entorno mucho más amigable para la censura, el discurso de odio, la desinformación y la propaganda”.12
Caso Gonzalez v. Google: ¿Qué resolverá la Corte Suprema de Estados Unidos?
Este caso fue iniciado por los familiares de una mujer estadunidense, asesinada en Paris en 2015 en un ataque terrorista perpetrado por ISIS, alegan que YouTube —propiedad de Google— permitió que esa organización terrorista pudiera compartir vídeos para reclutar simpatizantes a través de recomendaciones personalizadas a través de sus algoritmos y simultáneamente generar ganancias para Google y ISIS. Lo que, a juicio de los demandantes, resulta violatorio de la Ley Antiterrorismo de Estados Unidos (Anti-Terrorism Act). En primera instancia, un tribunal en el Distrito Norte de California resolvió que la sección 230 de la CDA protegía a Google en contra de esos reclamos; el fallo fue confirmado, posteriormente, por la Corte de Apelaciones del Noveno Circuito.13
La decisión, entonces, de la Corte Suprema deberá analizar si la inmunidad de la sección 230 de la CDA protege a estas plataformas cuando sus algoritmos promueven o potencian ciertos contenidos a través de recomendaciones a sus usuarios. Esta no es una cuestión menor. Como ya expliqué, el modelo de negocio de estas plataformas depende de que sus usuarios inviertan la mayor cantidad posible en sus sitios. Sólo así pueden obtener la mayor cantidad de información posible sobre ellos y crear perfiles personalizados para ofrecer espacios publicitarios a otras empresas que buscan personas más propensas a consumir sus productos y servicios. En ese modelo, si las plataformas pierden la inmunidad sobre las recomendaciones que hacen sus algoritmos tendrían que invertir mayores recursos para curar las sugerencias automatizadas y así evitar sanciones o, en su caso, de plano suprimir esas recomendaciones lo que se traduciría en ambientes menos cómodos o útiles para los usuarios. Ante las pérdidas económicas que supondría no poder vender espacios publicitarios personalizados, las plataformas también podrían decidir trasladar la carga financiera a sus usuarios y transitar a un modelo de subscripciones con costo.14 Esto implicaría la exclusión de aquellas personas que no puedan pagar ese precio o el ofrecimiento de un servicio gratuito, pero de menor calidad.
Además, esto exacerbaría las diferencias que existen entre el servicio que ofrecen estas plataformas en Estados Unidos y el resto del mundo, principalmente con respecto a países en vías de desarrollo.15
¿Cuáles son las posibles implicaciones de esta caso?
El caso Gonzalez v. Google será el primero en que la Corte Suprema estadunidense se pronuncie sobre la sección 230 de la CDA en 25 años. Desde su entrada en vigor, el internet se ha convertido en una herramienta sofisticada e imprescindible para la sociedad; al mismo tiempo, la falta de una regulación adecuada ha permitido que unos cuantos actores acumulen una gran cantidad de poder y cuyas decisiones impactan significativamente en la vida de sus usuarios. Es claro que al momento en el que esa norma fue diseñada no se previó que el modelo autorregulatorio supondría problemas tan complejos, en los que las plataformas de internet tendrían el poder de ponderar entre sus propios intereses y el bienestar público. Estamos en un momento clave para definir si ese modelo es el más adecuado para proteger a los usuarios frente a la posición de poder asimétrica en la que se encuentran frente a estas compañías, si puede ser reformado o es mejor abandonarlo por uno nuevo.
Sin embargo, la pregunta es si un tribunal debería ser el encargado de evaluar su viabilidad. En el caso de Estados Unidos, demócratas y republicanos coinciden en que es momento de realizar esa evaluación, el problema ha sido llegar a un consenso para definir qué tipo de regulación es la más apropiada, qué candados se deben poner a las plataformas de internet y quién debe ser el encargado de vigilar su comportamiento. Esto es de suma relevancia, más si tomamos en cuenta que últimamente la Corte estadunidense se ha visto envuelta en un clima de polarización política y de escándalos como nunca se había visto.16 En otras latitudes, el esfuerzo por regular lo que sucede en internet está ocurriendo en la vía parlamentaria o mediante decretos ejecutivos,17 por lo que llama la atención que en Estados Unidos sea la Corte Suprema quien vaya a realizar las primeras aproximaciones a este problema. Habrá que esperar a ver si republicanos y demócratas logran un consenso antes de que se resuelva el caso, lo cual depende de lo que suceda en las elecciones intermedias del próximo 8 de noviembre.
Héctor Armando Salinas Olivares. Licenciado en derecho por el CIDE y egresado de la maestría en derechos humanos y garantías por el ITAM. Twitter: @ArmandoSalinasO
1 Cannon, R. “The Legislative History of Senator Exon’s Communications Decency Act: Regulating Barbarians on the Information Superhighway”, Federal Communications Journal, vol. 49, núm. 1, pp. 52-53.
2 Klonick, K. “The new governors: the people, rules, and processes governing online speech”, Harvard Law Review, vol. 131, 1598, pp. 1604-1605.
3 La redacción final fue la siguiente: “No provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider”.
4 Reno v ACLU 521 U.S. 844 (1197).
5 Balkin, J. M. “Frees Speech is a triangle”, Columbia Law Review, vol. 118, no. 7, 2011, p. 2016.
6 Klonick, K. “The new governors: the people, rules, and processes governing online speech”, Harvard Law Review, vol. 131, 1598, p 1636. A esto, la autora lo llamó “restricciones previas en el espacio digital”.
7 Ibíd., pp. 1627: “The primary reason companies take down obscene and violent material is the threat that allowing such material poses to potential profits based in advertising revenue”.
8 Ídem.
9 Kaye, D. Speech Police. The global struggle to govern the internet, Columbia Global Reports, Nueva York, 2019, p. 16.
10 Zuboff, Sh. The age of surveillance capitalism, Public Affairs, Nueva York, 2019, pp. 292-327.
11 Klonick, K. ob. cit., pp. 1618-1625.
12 Kaye, D. ob. cit., p. 13.
13 Gonzalez v. Google, LLC, No. 18-16700 (9th Cir. 2021).
14 Esto ya sucede en Twitter y en YouTube.
15 Véase Zakrzewski, C., De Vynck, G., Masih, N., y Mahtani, Sh. “How Facebook neglected the rest of the world, fueling hate speech and violence in India”, The Washington Post, 24 de octubre de 2021, consultado el 25 de octubre de 2022.
16 Los 2 ejemplos más claros lo podemos encontrar en la filtración del proyecto del caso Dobbs vs Jackson Women´s Health Organization en el que la Corte abandonó la protección federal al aborto, y en el involucramiento de la esposa del Justice Clarence Thomas en la campaña para desconocer los resultados de la elección presidencial del 2020.
17 Por ejemplo, la Comisión Europea recientemente adoptó la Digital Services Act con el objeto de regular el poder de plataformas digitales y motores de búsqueda y está pendiente de ser aprobada por el Parlamento Europeo. En Brasil y Alemania se han emitido leyes que buscan lo mismo desde diferentes enfoques. En India el Ministerio de Electrónica y Tecnologías de la Información emitió lineamientos para controlar las acciones de estas plataformas.