La última vez que estuve formalmente en un salón de clases fue en el 2009, hace ya un par de lustros. Cuando pienso en los cambios que ha sufrido el campo del Derecho durante esta década me doy cuenta de que no solo vivimos en los albores de un mundo que tiene poco que ver con lo que me enseñaron en clase sino también que mi profesión —abogacía— quizá será una de las primeras bajas ante la llegada de la inteligencia artificial (IA). A continuación, algunos ejemplos.

El uso de algoritmos en el sistema de justicia penal de diversos países es más común de lo que imaginamos. En Estados Unidos, la American Civil Liberties Union, importante organización para la protección de los derechos, ha puesto luz en el empleo de algoritmos por los jueces para tomar decisiones “objetivas” sobre libertad condicional o bien para determinar la sentencia óptima por la comisión de un delito. El problema radica en que se ha demostrado que estos programas hacen predicciones o recomendaciones a partir de datos que de origen están sesgados, pues se basan en información judicial y policial en la que históricamente personas afroamericanas o de otras minorías raciales son señaladas como responsables de la mayor parte de los delitos (Southerland, 2018). Además, las personas afectadas no tienen la posibilidad de saber, y por tanto de cuestionar, cómo es que el algoritmo llegó a determinada sugerencia para el juez, pues hasta el momento no hay transparencia sobre elementos técnicos de estos sistemas tales como: con qué información fueron entrenados, cuáles son las variables utilizadas y la ponderación de estas en su análisis.

Uno de los casos más conocidos es el de Eric Loomis, quien en 2013 fue acusado por el Estado de Wisconsin por la comisión de delitos. Al dictarle sentencia, el juez hizo referencia al sistema COMPAS que había hecho el análisis de riesgo de reincidencia y con base en ello le fijó una sanción de seis años en prisión. Al revisar el caso, la Suprema Corte de Justicia de Wisconsin determinó que el uso de algoritmos no viola el debido proceso, pues el juez tomó su propia determinación, no obstante que la metodología empleada por el algoritmo, al ser un secreto comercial, no fue del conocimiento del acusado ni del juez (Suprema Corte de Justicia de Wisconsin, 2016) La Corte simplemente pidió que, en el futuro, el resultado del análisis de riesgo se acompañara de una “advertencia” sobre los posibles sesgos, para que los jueces procedieran con cautela con esta herramienta.

En el fondo, la falta de plena objetividad puede ser una falla tanto del juez como del algoritmo, la pregunta para el futuro es ¿cuál es más fácil de corregir? En cualquier caso, será fundamental transparentar el uso de estas herramientas y establecer mecanismos para inconformarse ante las decisiones que tienen un impacto tan importante en la vida de las personas, como lo es una sentencia condenatoria. La garantía de debido proceso consagrada en la mayoría de los sistemas de justicia tendrá que adaptarse a las nuevas tecnologías.

Ilustración: Sergio Bordón
Ilustración: Sergio Bordón

El derecho civil clásico que aprendí en la universidad también habrá de ajustar conceptos de gran “tradición legal” como la personalidad jurídica y la responsabilidad civil. Pensemos por ejemplo en Sophia, el robot humanoide creado en 2016 por la empresa Hanson Robotics (2018). Este robot no solo interactúa a través de sus cuentas de Twitter @RealSophiaRobot y de Facebook, sino que recibió en 2017 la ciudadanía de Arabia Saudita y fue nombrada por el Programa de las Naciones Unidas para el Desarrollo como vocera de Innovación (UNDP, 2017).

Si bien hay toda una discusión entre los expertos sobre la sofisticación de las redes neuronales que explican su funcionamiento, lo cierto es que Sophia siembra la semilla de la duda en términos legales pues ya tiene nacionalidad, ciudadanía y documentos que lo comprueban. ¿Sería posible que Sophia gozara de personalidad jurídica propia? Si cobrara por las múltiples entrevistas y conferencias que ha dado, ¿de quién sería ese patrimonio? ¿Si con alguna broma o comentario ofendiera a alguien, de quién sería la responsabilidad ante una posible demanda?

Puede parecer algo muy lejano, propio de una película, pero no lo es. Por ejemplo, en el 2017 una comisión del Parlamento Europeo elaboró una recomendación para la Comisión Europea en la que sugiere “crear un estado legal específico para los robots a largo plazo, de modo que al menos los robots autónomos más sofisticados puedan establecerse como personas electrónicas responsables de reparar cualquier daño que puedan causar, y posiblemente aplicar personalidad electrónica a los casos en que los robots toman decisiones autónomas o interactúan con terceros de forma independiente” (Delvaux, 2015).

Sin ir tan lejos, la legislación civil en México y en el mundo recurre a una ficción al hablar de personas morales para referirse a las empresas, sindicatos, asociaciones e incluso Estados, ¿por qué no pensar eventualmente en una nueva ficción para personas/robots? Con el avance de la tecnología esa definición se hará cada vez más necesaria para la impartición de justicia y podría contribuir a dar certeza sobre aspectos tan importantes como la responsabilidad por fallas o mal funcionamiento.

Tangencialmente al tema de la personalidad jurídica se encuentra el de la identidad digital. Hoy en día, la mayoría de los países utiliza métodos tradicionales de identificación como la credencial de elector, el pasaporte o la licencia de conducir. Sin embargo, cada vez surge con mayor fuerza el debate sobre la necesidad y/o el derecho de contar con una identidad digital, formada por la mezcla de los atributos e información disponibles en línea que se pueden vincular a una persona física. Algo así como la “huella” que tiene una persona en el ciberespacio y que puede incluir comportamientos, perfiles sociales, ubicación geográfica, historiales de búsqueda, y que sirven para conformar su identidad en el mundo digital (NIST, 2018).

El reporte “La era de la interdependencia digital” (UN, 2019) del panel de expertos en cooperación digital del secretario general de la Organización de las Naciones Unidas, señala que más de un billón de personas en el mundo carecen de un medio de identificación oficial, lo cual a su vez limita el ejercicio de otros derechos como el voto, la inclusión financiera, acceso a servicios de salud y educación. En contraste, con base en la iniciativa del Banco Mundial “Identificación para el Desarrollo”, algunos países como Estonia han implementado sistemas de identidad digital que permiten acceder a más de dos mil servicios gubernamentales en línea.

Es un tema complejo que parte de presupuestos mínimos como el acceso a conectividad, ciberseguridad y alfabetización digital, pero si al menos en México el sistema legal ha incorporado la firma electrónica avanzada (una serie de contraseñas y archivos electrónicos para realizar ciertas operaciones como la declaración de impuestos o patrimonial), ¿por qué no pensar en que el concepto podría evolucionar hasta llegar a la identidad digital?

Otro tema relevante que empieza a sufrir aguijoneos es el de los impuestos. Actualmente en México, como en otros países, plataformas digitales como Facebook, Twitter, Amazon, Netflix o Airbnb no pagan impuestos por los servicios que prestan, principalmente bajo el argumento de que no tienen presencia física en el país. Sin embargo, recientemente los ministros de finanzas del G20 (o Grupo de los Veinte) acordaron desarrollar reglas comunes para revertir esta situación y lograr que las grandes empresas dejen de utilizar lagunas en la ley para evadir el pago de impuestos. Reino Unido y Francia han abogado por la regulación fiscal argumentando la necesidad de poner un piso parejo entre las obligaciones del comercio tradicional y las del electrónico, lo que ha llevado al enfrentamiento con Estados Unidos que, en general, busca proteger a sus empresas de tecnología. Más allá de los debates políticos sobre esta decisión, los avances tecnológicos muestran un reto para el Derecho al tratar de cobrarles impuestos a nuevos modelos de negocios que por un lado implican la realización de transacciones a miles de kilómetros de distancia de sus oficinas y, por otro, en ocasiones no está claro el bien o servicio que se presta, así como el ingreso gravable que ello genera. Siguiendo con el ejemplo de Sophia, ¿si es ciudadana de Emiratos Árabes, es o debiera ser contribuyente para efectos del sistema fiscal de ese país? De igual manera, si algunos trabajadores serán despedidos como resultado de la automatización de sus labores ¿sería razonable pensar en un impuesto a dicha automatización que pudiera servir para promover la capacitación de los trabajadores desplazados?

Por otro lado, como se ha mencionado en diferentes capítulos de este libro, los datos son la materia prima para la IA. Son tan importantes que empieza a discutirse sobre la posibilidad de actualizar el concepto de bien público. Es decir, por su relevancia, concebir la información como un bien de acceso universal, que no se pueda comercializar en el mercado y cuyo uso por uno no excluya el de otros, lo que podría implicar, por ejemplo, la intervención del Estado (o de un tercero) para su administración óptima. Si la información es esencial para el desarrollo de la IA y la falta de acceso a esta puede ser incluso una barrera de entrada u obstáculo para la innovación, ¿por qué no pensar en un tercero (llámese Estado o gestores de información privados) que se encargue de concentrar y administrarla, al menos en sectores tan importantes como la salud, agricultura o medio ambiente, de tal manera que se garantice el acceso no preferente ni exclusivo?

Los problemas hasta aquí descritos pasan, creo, por la legislación, ya sea para actualizar la existente o crear una nueva. Aunque no lo parezca, legislar bien siempre es un reto, particularmente tratándose de una industria o tecnología innovadora que como la IA es transversal, sofisticada y de rápida transformación, lo que exige no solo gran capacidad de respuesta para legislar oportunamente (ni antes ni después de lo necesario) sino, sobre todo, técnica por parte de los agentes del Estado. Este segundo elemento es en el que quisiera enfocarme, pues exige una clara conciencia de los líderes políticos para incorporar al personal adecuado para traducir la técnica al mundo jurídico, lo cual entraña al menos dos riesgos importantes: 1) la miopía de los gobernantes ante la necesidad de cambiar el marco jurídico con base en criterios técnicos y 2) la tensión, al menos en los sistemas democráticos, entre el saber técnico (que normalmente es de unos cuantos), sin control democrático sobre el alcance de sus decisiones en la población. Puede tratarse de legisladores robots o de un “consejo de técnicos” que asesore a los órganos legislativos, ambos tienen el peligro de carecer de legitimidad democrática y de tomar decisiones que impactarán a la sociedad.

Mientras vemos si se actualizan esos riesgos y dado que lo que está en juego es cada vez más importante, creo que hay que empezar a plantear preguntas y proponer respuestas para nuestros sistemas jurídicos y de impartición de justicia:

¿Qué regular de la IA? Una señal clave inicial, como propone el investigador Frank Pasquale, es si el sistema o aplicación de IA crea o puede crear condiciones de asimetría de poder o profundizar la desigualdad y la vulnerabilidad de los involucrados. Si con determinado algoritmo se decide la libertad de una persona, el acceso a una beca escolar, la política pública de seguridad en una zona geográfica, la distribución de un bien público, debiese haber un mínimo debido proceso, transparencia y mecanismos para controvertir la decisión. Un ejemplo de la aplicación de esta lógica es la iniciativa “Responsabilidad Algorítmica” del 2019 en Estados Unidos, que propone un proceso de evaluación exhaustiva para los “sistemas de decisión automatizados de alto riesgo”, esto es, aquellos que poseen un riesgo significativo a la privacidad y seguridad de la información personal de los usuarios, contribuyen o pueden contribuir a imprecisiones, sesgos o discriminación, o bien que alteran derechos legales, entre otros (US SENATE, 2019).

¿Cuándo regular? El momento es clave pues el desarrollo de las normas puede influir mucho en el estado de las tecnologías. Los esfuerzos prematuros pueden dar como resultado reglas que no reflejan el estado de la tecnología o pueden no estar respaldados por una masa crítica de conocimiento tecnológico, generando normas que son inadecuadas para su propósito y afectan la innovación. Alternativamente, los esfuerzos legislativos tardíos pueden ofrecer normas que no ganarán aceptación debido a la infraestructura ya desarrollada y al poder de mercado ejercido por tecnologías existentes, lo que también obstaculizará la innovación.

¿Cómo regular? Mi propuesta sería de manera progresiva (por etapas), con base en conocimiento tecnológico y principios generales, a partir de mejores prácticas y procesos colaborativos, con certificaciones y estándares técnicos como complemento.

Progresivamente: No se trata de generar leyes de un día a otro, sino de que sean resultado de un proceso de maduración que primero pasó, por ejemplo, por autorregulación (la experiencia de la industria es importante), estándares, entre otros. Inicialmente sobre necesidades y aspectos específicos (salud, educación, interacción humana) y luego que abarque aspectos generales (transparencia, explicabilidad, mecanismos para controvertir).

Con base en conocimiento tecnológico y principios: El proceso legislativo tradicional tendría que estar precedido e informado por un trabajo importante de estándares técnicos que proporcionarán un lenguaje común y marcos acordados que sustenten el desarrollo y la implementación de innovaciones tecnológicas. En la estrategia de IA impulsada por el gobierno de Estados Unidos un elemento importante es el desarrollo de estándares técnicos por parte del Instituto Nacional de Estándares y Tecnología (NIST por sus siglas en inglés). Adicionalmente, los principios generales pueden ser un punto de partida para sortear el problema de la relatividad de los valores culturales. Es obvia la existencia de profundas diferencias en la concepción de derechos y obligaciones entre oriente y occidente, entre democracias y otros sistemas políticos, pero si se pudo llegar a un acuerdo global sobre la Declaración Universal de Derechos Humanos, quizá pueda empezar a construirse una actualización de los principios y valores que presupone. Prueba de ello es el trabajo del Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial de la Comisión Europea, que propuso un conjunto de nueve principios básicos, apoyados en los valores fundamentales recogidos en los tratados de la Unión Europea y en la Carta de los Derechos Fundamentales de la Unión Europea.

A partir de mejores prácticas internacionales: Para reducir al máximo los costos de descubrir el hilo negro, es importante considerar los múltiples esfuerzos realizados desde diferentes trincheras. Un factor detonador será el Observatorio de Políticas de la Organización para la Cooperación y el Desarrollo Económicos (OCDE), cuyo objetivo es ayudar a los países a alentar, nutrir y monitorear el desarrollo responsable de sistemas confiables de IA en beneficio de la sociedad, además de que realizará análisis de políticas multidisciplinarios y basados en evidencia.

Utilizando procesos colaborativos: Generalmente dos cabezas piensan mejor que una, por lo que es deseable fomentar mecanismos de colaboración interdisciplinaria en los que intervengan el sector público, privado, academia y sociedad civil.

Certificación como complemento: Apoyarse de organizaciones que puedan acreditar ante el público que un sistema de IA es transparente, responsable y seguro. Estas certificaciones aplicarían normas y estándares desarrollados para diferentes ámbitos de aplicación y técnicas de IA, convenientemente alineados con las normas industriales y sociales del contexto específico de que se trate. Ejemplo: Iniciativa para un Diseño Alineado con la Ética del Instituto de Ingenieros Eléctricos y Electrónicos (IEEE)(2019).

La colisión entre IA y Derecho es inminente. La tarea no será nada sencilla pero lo que está en juego es de tal importancia que no debemos darnos el lujo de dejar hacer y dejar pasar. Si vemos las noticias del mundo, el Estado parece tener muy mala fama estos días, pero hasta ahora (antes de la IA general) es lo mejor que hemos inventado los seres humanos para organizarnos, por tanto, el Estado, con sus tres poderes Ejecutivo, Legislativo y Judicial, debe poner manos a la obra para garantizar el sistema que imaginamos ante la llegada de la IA.

Paola Cicero Arenas. LL. M. International Legal Studies, New York University (nyu). Twitter: @PaoCiceroA

* Nota: este texto es parte del libro: Mi vecino es un robot. Los retos de convivir con la inteligencia artificial, Debate, México, 2002, coordinado Paola Cicero, Erik Huesca y Javier Juárez. Se publica con autorización de la autora y de la casa editorial.

Escribe tu correo para recibir el boletín con nuestras publicaciones destacadas.


Publicado en: Derecho y Tecnología