El día de Musk en la Corte Suprema estadounidense: Twitter v. Taamneh

En este mismo espacio he explicado en diversas ocasiones cuál es el rol de las redes sociales en el ejercicio de diversos derechos, particularmente el de la libertad de expresión. Escribir sobre estas plataformas implica saber lidiar con la complejidad de que se trata de un campo sumamente volátil, en el que cualquier cambio en sus políticas, algoritmos o dirección puede afectar a sus usuarios. Sin embargo, lo que está sucediendo con Twitter, además de impredecible, pone en evidencia como cualquier decisión que pretenda cambiar la dinámica con la que operan las redes sociales puede generar reacciones en cadena que impactan en la vida real.

La compra de esta compañía por parte de Elon Musk, por 44 mil millones de dólares, por su peculiar personalidad auguraba que Twitter sufriría muchos cambios para lograr que la compañía generara más ganancias y pudiera competir con otras redes sociales. Con esta mentalidad disruptiva, Elon Musk anunció que sus usuarios tendrían que pagar ocho dólares –después de un surrealista proceso de negociación pública con el autor de novelas de terror Stephen King1— para tener en su perfil la marca de verificación a través de la contratación de Twitter Blue. Además, dejó entrever que flexibilizaría los controles sobre lo que se podría publicar en la plataforma, para inmediatamente matizar su postura y anunciar la creación de un consejo de moderación de contenidos,2 ante la aparente desbandada de anunciantes y una drástica caída en los ingresos por concepto de publicidad.3 Además, despidió a cerca de 7000 trabajadores e implementó un ambiente de estrés entre los que se quedaron para implementar cambios en la plataforma en tiempos récord. Los efectos han sido inmediatos, la flexibilización de los controles de verificación provocó que los usuarios se hicieran pasar por marcas y personalidades públicas, y que muchas compañías registran pérdidas multimillonarias en el mercado bursátil. Además, diversos académicos y organizaciones4 han mostrado su preocupación ante la posibilidad de que Twitter se convierta en una plataforma en la que la desinformación y los discursos discriminatorios y de odio se difundan libremente.

En medio de este huracán, vale recordar que la Corte Suprema de Estados Unidos decidió el pasado 3 de octubre que conocería el caso Twitter v. Taamneh en el que resolverá si las plataformas digitales como redes sociales son responsables cuando sus usuarios publican contenido relacionado con actos u organizaciones terroristas y no es inmediatamente retirado.

Ilustración: Kathia Recio
Ilustración: Kathia Recio

Inmunidad digital

Antes de explicar este caso, es necesario describir el contexto legal en el que se desarrolla. Ya en otras ocasiones he explicado en este mismo espacio que estas plataformas rigen sus operaciones y su modelo de negocio bajo la protección que les otorga la sección 230 de la Communications Decency Act5 (CDA). Para explicar esta norma de forma muy simplificada, basta con decir que esta cláusula permite que a las empresas proveedoras de servicios en línea no se les pueda fincar responsabilidad por las publicaciones de sus usuarios en sus plataformas. En otras palabras, la sección 230 permite que sean las propias empresas las que voluntariamente diseñen e implementen sus propias políticas sobre qué contenidos pueden estar disponibles para sus usuarios y cuáles deben ser removidos. En los hechos, estas plataformas también han usado ese artículo para impulsar y viralizar contenidos aduciendo que esa práctica se encuentra protegida, por lo que también están exentas de responsabilidad. Actualmente, no ha habido pronunciamiento alguno por parte de la Corte Suprema estadounidense sobre cuáles son los alcances de esta inmunidad o si existen contextos en los que las plataformas no estén protegidas por esa inmunidad y estén constitucionalmente obligadas a actuar para remover determinadas publicaciones.

El caso

Antes de la adquisición de Twitter por Elon Musk, la compañía fue demandada —junto con Google y Facebook—, por los familiares de Nawras Alassaf, ciudadana jordana asesinada en Estambul por un ataque terrorista de ISIS en el que fallecieron otras 39 personas. En la demanda alegaron que esas compañías ayudaron e incitaron el crecimiento de esa organización terrorista pues permitieron que sus miembros usaran tales plataformas para reclutar, difundir sus mensajes y amenazas y aterrorizar ciudadanos, lo cual constituía una violación a la Ley de Antiterrorismo (Anti-terrorism Act) y la sección 2333 del U.S. Code que establecen que cualquier persona que coopere o conspire con organizaciones terroristas podrá ser demandada ante una corte de distrito en Estados Unidos y ser responsable por el pago de daños.6

En la primera instancia del juicio, la corte de distrito desestimó el caso bajo el argumento de que los familiares de Nawras Alassaf no lograron presentar un reclamo del que se pudiera concluir que Facebook, Twitter y Google eran responsables de cooperar deliberadamente con ISIS para llevar a cabo sus ataques terroristas.7 Los familiares impugnaron esa decisión y la corte de apelaciones del noveno circuito les dio la razón. Los jueces que integran esa corte consideraron que el reclamo sí cumplía los requisitos —fijados por la Corte Suprema de Estados Unidos en el caso Halberstam v. Welch8— para que la corte de distrito admitiera a juicio el caso y analizara si Twitter, Facebook y Google cooperaron y fueron cómplices de ISIS. Por esa razón, revocó la decisión de la corte de distrito y se lo reenvió para que volviera a resolverlo.

Twitter decidió llevar el caso ante la Corte Suprema de Estados Unidos bajo el argumento de que se deben resolver dos cuestiones clave: por un lado, si se puede decir que Twitter otorgó de manera sustancial y consciente ayuda a ISIS por el sólo hecho de que pudo actuar de manera más agresiva para prevenir que esa organización hiciera uso de su plataforma y; por el otro, si se puede condenar a Twitter de cooperar deliberadamente con ISIS a pesar de que su plataforma no fue usada específicamente para llevar a cabo el acto terrorista en el que falleció Nawras Alassaf.

Al resolver que revisaría el caso, la Corte Suprema destacó que la corte de apelaciones del noveno circuito no consideró en absoluto la sección 230 de la CDA y aun así concluyó que Facebook, Twitter y Google podían ser declarados responsables por actuar en complicidad con ISIS en la realización de actos terroristas. De acuerdo con la Corte Suprema, la interpretación de la corte de apelaciones del noveno circuito parece ser un fallo erróneo que pone en peligro a los proveedores de servicios digitales y que contrasta con las decisiones que han tomado el resto de las cortes de apelaciones en Estados Unidos. De este modo, dada la peculiaridad del fallo impugnado, el caso permitiría que la Corte Suprema defina si existen obligaciones concretas a cargo de las plataformas de redes sociales como Twitter emanadas de la Ley Antiterrorismo.9

Implicaciones

La decisión de conocer el caso Twitter v. Taamneh no es asilada. Hace algunos días escribí en este mismo espacio10 sobre la decisión de la Corte Suprema estadounidense para conocer también el caso Gonzalez v. Google en el que se resolverá si las plataformas digitales están protegidas cuando recomiendan o amplifican cierto tipo de contenido a sus usuarios. Es claro que la Corte reconsideró su postura histórica de evitar los casos relacionados con las plataformas en línea y está dispuesta a entrar de lleno en la discusión sobre si existen conductas exigibles a las plataformas de redes sociales y si su incumplimiento puede dar lugar a la imposición de sanciones y multas.

Lo relevante y novedoso del caso Twitter v. Taamneh, a diferencia de lo que sucede en el caso González v Google, es que la discusión no está propiamente centrada en la sección 230 de la CDA. Los familiares de Nawras Alassaf no alegaron que Google, Facebook y Twitter buscaran generar ganancias a través de las recomendaciones algorítmicas. El planteamiento fue más simple: pidieron que la corte de distrito determinara si estas empresas son responsables de remover contenido relacionado con organizaciones y actos terroristas y su incumplimiento da lugar a una reparación. De este modo, lo que decida la Corte Suprema puede dar lugar a que se reconozca por primera vez en Estados Unidos de forma explícita la existencia de un límite a la protección con la que operan las plataformas de redes sociales. Esto implicaría un cambio de paradigma en la forma en la que interactuamos con estas plataformas pues abriría la discusión para que en futuros casos se plantee si ese mismo criterio resultaría aplicable para los discursos discriminatorios o de odio, o para contenidos que buscan desinformar. Seguramente la sección 230 será tomada por los jueces de la Corte Suprema tanto en las audiencias orales como en la decisión final. Sin embargo, lo interesante es que los aspectos procesales del caso impactaron en cómo se debe abordar el asunto y el resultado que puede originar. En otras palabras, se hablará de la sección 230 pero no sólo de la sección 230.

Para Twitter esto no es un asunto menor. Recientemente algunos medios reportaron el despido de empleados subcontratados que se encargaban de los procesos de moderación de contenido en la plataforma. Esto puede mermar seriamente la capacidad de la compañía de evitar que organizaciones terroristas puedan usar Twitter para seguir difundiendo sus amenazas y reclutar simpatizantes. En principio, parece complicado que la Corte Suprema pueda resolver que las redes sociales pueden ser cómplices de ISIS u otros grupos terroristas, pero esto sería en gran medida en un contexto en el que estas empresas dedican una gran cantidad de recursos para evitar la publicación y difusión de esos contenidos.

Sin embargo, si Twitter empieza a presentar fallas en su capacidad para contrarrestar a las organizaciones terroristas en su plataforma como consecuencia de las decisiones de Elon Musk, no resulta descabellado cuestionarse si los jueces de la Corte Suprema estarían dispuestos a permitir que se finque algún grado de responsabilidad en contra de estas empresas si se prueba que no actúan con debida diligencia. Esto, a su vez, se traduciría en la imposición de sanciones multimillonarias, que no todas las empresas podrían cubrir. Si de algo nos han servido estas semanas es para corroborar que cualquier cambio desata reacciones en cadena a gran velocidad y la capacidad de respuesta de Twitter no parece estar muy afinada.

Héctor Armando Salinas Olivares. Licenciado en derecho por el CIDE y egresado de la maestría en derechos humanos y garantías por el ITAM. Twitter: @ArmandoSalinasO.


1 Véase: https://twitter.com/elonmusk/status/1587312517679878144, consultado el 5 de noviembre de 2022.

2 Véase https://twitter.com/elonmusk/status/1586059953311137792, consultado el 5 de noviembre de 2022.

3 Véase: https://twitter.com/elonmusk/status/1588538640401018880, consultado el 5 de noviembre de 2022.

4 Véase: “Fact check: Musk’s claim about a fall in hate speech doesn’t stand up to scrutiny”, Center of Countering Digital Hate, 10 de noviembre de 2022, consultado el 10 de noviembre de 2022 y Scribner, H. “Elon Musk’s Twitter sees rise in racial slurs, hate speech”, Axios, 12 de noviembre de 2022, consultado el 13 de noviembre de 2022.

5 47 U.S.C. § 230 “No provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider”.

6 18 U.S.C. § 2333(a), (d)(2). Consultable en Office of the Law Revision Counsel.

7 En inglés a este tipo de reclamos se les denomina: “aiding and abeting claims”.

8 Ese test requiere que se prueben 3 elementos: 1) que la persona u organización que recibió la ayuda haya generado algún daño con sus actos; 2) que la persona acusada de cooperar haya sido consciente, en términos generales, de su rol en esos actos y 3) que en la acusación se alegue que la parte demandada otorgó asistencia a los terroristas de manera consciente y sustancial

9 Twitter Co. v. Taamneh, No. 21-1496 (9th Circuit, 2022).

10 Salinas, A. “La Corte Suprema estadunidense y el futuro de internet”, nexos.

Escribe tu correo para recibir el boletín con nuestras publicaciones destacadas.


Publicado en: Derecho y Tecnología