Sesgos en la inteligencia artificial predictiva: la ruta regulatoria para México

México enfrenta cambios significativos en sus estructuras de poder. Las diversas reformas constitucionales impulsadas por la actual administración están generando incertidumbre jurídica en varias esferas sociales respecto su viabilidad y, por lo mismo, pueden afectar la posición global del país. Esto, sumado a eventos internacionales, como la reelección de Trump, impacta a no pocos ámbitos.  Una de éstos es, sin duda, lo relativo a la inteligencia artificial y su posible (pero cada vez más necesaria) regulación. El siguiente texto reflexiva una eventual ruta regulatoria en torno a las conductas en torno a esta compleja tecnología en nuestro país.

A lo largo de la historia, la humanidad ha mostrado un incansable deseo de extender sus capacidades. Desde los primeros pobladores de las cavernas, se evidencia su ingenio para superar las limitaciones de sus cuerpos y mentes. Por ejemplo, desarrollaron herramientas como lanzas y flechas para obtener alimentos, e incluso plasmaron sus experiencias en pinturas rupestres como una forma de conservar sus memorias. No obstante, esta búsqueda de superación no se detuvo ahí, ya que a medida que el tiempo avanzó, la humanidad continuó explorando nuevas formas de potenciar tanto el cuerpo como la mente humana.

Durante el siglo XVIII con la primera revolución industrial, surgieron máquinas más sofisticadas que actuaban como extensiones del cuerpo humano. Su objetivo primario era simplificar sus labores y aumentar la productividad.1 En búsqueda del resultado más óptimo realizando el mínimo esfuerzo, se ha buscado reducir cada vez más la intervención humana. Lo anterior, ya no es sólo para apoyo en cuestiones que requieren del cuerpo humano, sino de su mente. Por lo tanto, se ha dado paso a una serie de revoluciones tan trascendentes como la primera, siendo la más reciente: la revolución industrial 4.0 o revolución tecnológica.2

La transformación digital y el desarrollo tecnológico han aumentado exponencialmente en los últimos años.3 Incluso, debido a la contingencia sanitaria por Covid-19, se estima que el mundo se digitalizó en meses lo que se esperaba tomaría años.4 Este desarrollo ha propiciado que diversas tecnologías emerjan, impactando en la simplificación de diversos procesos cotidianos como lo es: “la toma de decisiones”. Por esto, el uso de modelos de inteligencia artificial (IA) ha ganado prominencia, ya que buscan extender las capacidades de razonamiento humano y, por ende, simplificar la toma de decisiones.

La IA ha llegado a las sociedades como una tecnología disruptiva al marcar un cambio hasta en la forma de pensar. Incluso, pueden destacarse un sinfín de beneficios que es posible de brindar a la sociedad en general. No obstante, uno de los más importantes es, tal como se adelantó, la predicción y la toma de decisiones. Por ejemplo, en el área de la salud, puede utilizarse para predecir y determinar el riesgo de contraer alguna enfermedad como el cáncer y, por ende, anticipar los tratamientos necesarios. Cabe destacar que los beneficios pueden ser multisectoriales, ya que la IA predictiva puede aplicarse en prácticamente cualquier sector.

Por otra parte, esta tecnología a su vez trae aparejados nuevos desafíos, dilemas éticos y situaciones que pueden afectar la esfera jurídica de los particulares. Dentro de este conjunto de riesgos, existe uno que es inherente a todos los tipos de IA y que, para el caso de aquella que realiza predicciones, es fundamental mitigar. Estos sistemas predictivos inteligentes son alimentados por datos recabados y tratados por humanos, por lo que no son ajenos a las creencias, a la cultura y a los prejuicios. En consecuencia, al ser alimentados por datos que pueden estar sesgados, es posible que se perpetúen desigualdades, estructuras de poder y prejuicios que han subsistido por generaciones.

La relevancia de mitigar estos sesgos en un país como México es creciente ya que, desde el sector público, estos sistemas ya están siendo utilizados. El Servicio de Administración Tributaria (SAT) ha manifestado en diversas ocasiones que utilizarán sistemas predictivos inteligentes para mejorar la recaudación fiscal.5 De igual forma, el gobierno de Jalisco ha propuesto y realizado diversos proyectos que utilizan modelos de IA predictiva para dar solución a problemas ambientales y educativos.6. La población mexicana está cada vez más relacionada con los resultados e impactos de estos sistemas.

Sin embargo, a la fecha no existe en México un marco regulatorio claro y cierto que se encargue de mitigar el impacto de los sesgos consustanciales a la IA, a pesar de que pareciera que su uso e implementación es creciente en el ámbito público y que existen indicios que también ocurre lo mismo en el sector privado. Dicho esto, surge la siguiente interrogante: ¿Cuál debería ser la ruta crítica mínima regulatoria en México para mitigar el impacto de los sesgos de sistemas predictivos inteligentes?

Ilustración: Estelí Meza

Sistemas inteligentes

¿Cómo se origina nuestro conocimiento? Es una cuestión filosófica que la humanidad ha tratado de responder. Diversos pensadores de la corriente epistemológica han propuesto diferentes teorías al respecto. Desde Platón con su “mundo de las ideas”7 hasta John Locke, con su concepción de la mente como tabula rasa.8 Sin embargo, para el campo de la IA, va más allá de eso, pues no sólo se trata de “entender” el pensamiento humano, sino de “construir” entidades que lo asemejen.9 Por lo tanto, estamos ante un descubrimiento emergente que representa claras dificultades para definir lo que es la IA.

La definición que pareciera ser más amplia, aproximada con los objetivos del sistema y amena para el desarrollo científico, es la aproximación del “agente racional”. Es decir, refiere a que un sistema inteligente debe actuar racionalmente, pues este tendrá que “obtener el mejor resultado, o cuando existe incertidumbre, el mejor resultado esperado” (Norving & Russell, 2010). Lo anterior ya que establecer un estándar de racionalidad puede ser matemáticamente bien definido y, por lo tanto, compatible con los alcances de los científicos de datos y desarrolladores de IA.

Los sistemas de IA están construidos por datos que son generados, seleccionados y tratados por humanos, por lo que están ligados a las creencias y valores intrínsecos de cada persona. En otras palabras, lo que pareciera una pura extracción de nuestro raciocinio, no está libre de prejuicios ni son imparciales en la predicción y la toma de decisiones.10 Es así, que puede decirse que los resultados de un sistema inteligente llevan consustancialmente un sesgo, el cual representa un problema técnico que no puede ser eliminado, sólo mitigado.11

La utilización de datos erróneos o con información sesgada puede ocasionar un daño a las personas que está tratando de beneficiar. Un desequilibrio en los datos puede traducirse en una representación desigual de ciertos grupos.12 De esta forma, cuando el sistema inteligente intente categorizar y asociar para predecir un resultado, éste será erróneo, pues los datos no son representativos. Esto conlleva a nuevas formas de discriminación y, por ende, afecta derechos humanos de los sujetos sobre los cuales se realiza una predicción.

La mitigación de sesgos requiere de una regulación que precise las medidas y estándares mínimos que deben tomarse en cuenta para generar, seleccionar y tratar los datos utilizados para alimentar al sistema inteligente. La aparición de sesgos parece surgir más directamente, o quizás exclusivamente, en las etapas relacionadas con el procesamiento de datos.13 No obstante, cualquier regulación que trate de mitigar los sesgos consustanciales a la IA, debe tener enfoque en los ocho pasos tradicionales14 del aprendizaje automático.15

Impacto social

El impacto de los sesgos en sistemas inteligentes va más allá de una mera suposición o incluso de la ciencia ficción. Alrededor del mundo se han registrado casos que debido a su impacto social han sido precedentes para conformar algunos estándares éticos en torno al diseño y uso de IA.

En Estados Unidos la desarrolladora tecnológica Northpointe creó un modelo denominado “Correctional Offender Management Profiling for Alternative Sanctions” (COMPAS). Este software basado en el uso de la IA y el aprendizaje automático fue utilizado por el sistema de justicia estadounidense. Su objetivo era evaluar el “perfil delictivo” de los reos para medir y predecir la probabilidad de reincidencia. De esta forma, los tribunales evaluaban la viabilidad de conceder al reo la libertad provisional bajo fianza o la libertad condicional.16 Este modelo fue objeto de controversia ya que mostraba un presunto sesgo frente a las personas de raza negra, pues el sistema les negaba a la mayoría de este grupo la posibilidad de acceder a una sanción alternativa.17

Por otro lado, encontramos ejemplos como HireVue, que se trata de un software cuyo objetivo principal es auxiliar en los procesos de contratación de nuevo personal para elegir al candidato ideal.18 Esta herramienta brinda asignaciones que son revisadas con IA y así seleccionar al candidato ideal por medio de un análisis de su expresión facial, su voz y, en general, su performance en video. En sus propias palabras, ellos buscan “asegurar que las asignaciones realmente puedan predecir el éxito laboral”19 (HireVue); aunque, sin duda, esto podría no incluir a aquellas personas con alguna discapacidad lingüística, motriz o que les impida realizar un “performance” acorde a lo esperado.

Este sistema predictivo para elegir al “mejor candidato posible”, necesita recurrir a la comparación del perfil del entrevistado contra una muestra representativa de personas que hayan tenido un desempeño destacado en un puesto similar al de la vacante. De esta forma, si el candidato obtiene un puntaje alto debido a la similitud en la comparación, avanza en el proceso de reclutamiento. Sin embargo, ¿qué sucede cuándo los datos de comparación que utiliza el sistema tienen una subrepresentación de algún grupo minoritario?

Uno de los casos más famosos relativos a estos sistemas predictivos en la contratación laboral es el de la empresa Amazon. Esta compañía utilizó un sistema predictivo cuyo algoritmo hacía una comparativa con los currículos  recibidos en los últimos diez años para identificar al mejor candidato o candidata.20 Sin embargo, debido a la baja proporción de datos de mujeres que trabajan en la compañía, el algoritmo seleccionaba perfiles masculinos como los candidatos ideales. El sistema generó un sesgo en contra de las mujeres que aplicaban a sus vacantes.21 Por lo tanto, se estaba perpetuando la discriminación a un grupo vulnerable que ha sido excluido históricamente en ciertos puestos laborales.

Con los casos mencionados anteriormente, sería justificable afirmar que los sesgos consustanciales a los sistemas predictivos inteligentes pueden causar impacto social. Lejos de los beneficios que proporciona el uso e implementación de herramientas de IA, pareciera que al no existir una regulación que mitigue el impacto de estos sesgos aleja a los modelos de su finalidad última que es el beneficio social, pero ¿por qué la falta de una regulación es relevante para México?

A pesar de los recientes cambios en las estructuras de poder y reformas a su marco jurídico, a la fecha, México se encuentra entre los primeros diez países a nivel mundial con mayor inversión extranjera directa.22 Actualmente es miembro de importantes organismos internacionales como la OCDE, el G20 y la Alianza del Pacífico; además, tiene un tratado comercial recién renovado entre México, Estados Unidos y Canadá (T-MEC). Por lo tanto, ha sido y es un destino atractivo para empresas extranjeras.

El aumento de la presencia de corporaciones en el país ha generado una intensa competencia entre ellas para ofrecer bienes y servicios en el mercado. Esto exige la búsqueda constante de valores agregados para destacar entre sus rivales. Dadas las ventajas de la IA, su incorporación puede tener un valor significativo.23 En consecuencia, cuando un competidor adopta sistemas inteligentes, a menudo incentiva indirectamente a otros a seguir el ejemplo para mantenerse competitivos en el mercado.

México actualmente se encuentra en el quinto lugar de Latinoamérica en implementación de IA; tiene un promedio de adopción de infraestructura para IA de 50.8%;24 es el país con mayor talento humano capacitado en tecnológica; y tiene cada vez mayor presencia de empresas en constante rivalidad y búsqueda de valor agregado en sus bienes y servicios. Por ende, se vuelve cada vez más relevante la incorporación de un marco regulatorio al respecto.

Acciones regulatorias

Una acción regulatoria debe entenderse como la emisión de reglas para proteger los intereses colectivos. En el caso de la tecnología, el establecimiento de reglas ha sido un proceso complicado y que ha transitado por varios criterios. Por ejemplo, antes existía un consenso académico respecto a mantener a la tecnología sin regulación para no afectar la innovación y aprovechar la totalidad de sus beneficios.25 Sin embargo, este consenso ha cambiado en los últimos años. La interrogante actual, entonces: ¿cuál debería ser esa ruta crítica regulatoria que permita mitigar el impacto negativo y, a su vez, no ser un freno para la innovación?

Las reglas del juego no siempre tienen que ser inflexibles, pues no toda regulación es necesariamente coercitiva. Debe establecerse que existen dos formas genéricas de realizar una regulación: hard law y soft law. Tal y como su traducción del inglés lo establece, el término hard law refiere a una “ley dura”, la cual va a establecer reglas de cumplimiento obligatorio para los sujetos regulados,26 de forma que su incumplimiento puede ser exigido por las vías institucionales. Bajo este tipo de ordenamientos recaen los instrumentos jurídicos como leyes federales, estatales, reglamentos, etc.

Por su parte, el término soft law o “ley blanda”, refiere a las normas que no son de cumplimiento forzoso y que, por el contrario, se tratan de buenas prácticas que se esperaría que fueran seguidas por los sujetos regulados.27 En caso de no cumplir con lo dispuesto en alguna de estas disposiciones, no existe sanción alguna pues están basadas en estándares morales y éticos. En este tipo de normativa, se encuentran los códigos de ética y conducta, recomendaciones por organismos nacionales e internacionales, directrices, hojas de ruta, normas de estandarización, etc.

Soft law

En los últimos años ha surgido cierta normativa de soft law tanto a nivel internacional como nacional. Para el caso mexicano, en el 2017, Luis Videgaray, Secretario de Relaciones Exteriores, presentó ante la Asamblea General de la ONU28 una iniciativa29 para incentivar la regulación de tecnologías a nivel internacional. Sin embargo, posterior a esto el primer acto que se realizó para establecer un criterio respecto a las buenas prácticas de la IA en el país fue hasta el 2019. Lo anterior contrasta con las acciones realizadas por organismos internacionales como la OCDE y la UNESCO, que desde el 2018 empezaron a emitir ordenamientos de soft law.

La mayoría de las acciones realizadas para trazar lineamientos de buenas prácticas en torno al uso de la IA en México se realizaron por el Instituto Federal de Telecomunicaciones (IFT). En 2019, el consejo consultivo de este órgano constitucionalmente autónomo emitió una serie de recomendaciones30 sobre las cuales pretende que México aproveche los beneficios y mitigue los riesgos de la IA. Este órgano fue un pionero en la materia durante la administración presidencial de Andrés Manuel López Obrador, pues a dos años de gobierno “aún no se contaba con una estrategia digital ni se había planteado su elaboración” (IFT, 2019).

Al momento no existen más recomendaciones o establecimiento de estándares técnicos por parte del gobierno mexicano. Si bien, están sumados a las acciones que organismos internacionales como la OCDE y la UNESCO han emitido, en la práctica nacional no se ha tomado como un tema prioritario. A pesar de ello, en los últimos años se han celebrado foros de discusión, mesas de análisis y la creación de una Alianza Nacional por la Inteligencia Artificial (ANIA) a la que pertenecen servidores públicos de diversos partidos políticos.

Hard Law

En México, después de la creación de la ANIA y la organización de mesas de discusión por parte del Congreso de la Unión (Comisión de Tecnología y Ciencia), se han presentado algunas iniciativas de ley (hard law). Esto ha ido en aumento, a partir de la segunda mitad del año 2023, en comparación con otros países como Estados Unidos (EUA), China y regiones como la Unión Europea (UE) quienes ya tienen aprobada cierta normativa de hard law.

La rápida evolución tecnológica y el desarrollo de IA ha tenido como consecuencia que naciones líderes como las mencionadas, desarrollen marcos regulatorios para gestionar y guiar su uso y desarrollo. No obstante, las aproximaciones de estos países son notablemente diferentes, pues reflejan sus visiones políticas, económicas y sociales sobre la tecnología.

En EUA, la regulación de la IA se ha caracterizado por una inclinación hacia instrumentos de soft law31 y medidas no vinculantes. No obstante, en respuesta a los movimientos de China y la UE, y reconociendo los desafíos que representa la IA para la sociedad, el presidente Joe Biden, emitió en octubre 2023 la Orden Ejecutiva No. 14110.32 Esta busca gobernar el desarrollo y uso de IA de manera segura y responsable a nivel federal, por lo que marca pautas importantes que deben adoptarse en el país.

En contraste con la estrategia estadounidense, China ha adoptado un enfoque de regulación más estricto y controlado por el Estado. La visión de este país reconoce a la IA como un componente primordial en su estrategia de desarrollo nacional, pero también como un riesgo que debe ser controlado. Es por esto que el gobierno chino ha implementado regulaciones que buscan fomentar la innovación, pero, sobre todo, para asegurar el control estatal sobre los datos y las tecnologías.33 Debe considerarse que China no es un país democrático por lo que esta regulación carece de legitimación general.

La UE, por su parte, está impulsando marcos normativos en temas tecnológicos que son estrictos, poco flexibles y vinculantes. Es complejo establecer una prospectiva de cuál va a ser el impacto regulatorio que pueda tener esta normativa, pues ningún país de occidente ha intentado regular estos temas así. Específicamente para el caso de la IA, se ha trabajado en una propuesta de Reglamento (Ley de IA).34 Este puede clasificarse como la primera regulación exhaustiva en occidente para creadores y creaciones. Si bien ya tenía un par de años en desarrollo, en Marzo 2024 los legisladores del parlamento europeo aprobaron este ordenamiento con mayoría absoluta.35

En México, como se mencionó previamente, han aumentado las iniciativas de ley para regular la IA. No obstante, la más reciente y, tal vez, la más importante es la presentada en marzo 202436 por Ricardo Monreal, senador del grupo parlamentario Morena. Esta propuesta regulatoria se basa en la creación de una “Ley Federal que Regula la IA” mediante un sistema de clasificación de riesgos. Esto es una aproximación similar a lo establecido por la UE, pero con menos densidad normativa. No obstante, el propio senador Monreal, a pesar de haberla presentado, ha realizado un llamado para que la ciudadanía aporte en la incorporación de contenido de esta ley.37

Debe considerarse que México ha transitado en 2024 por un periodo electoral en el que se han definido los escaños del Congreso como la elección de la próxima presidenta. El grupo parlamentario Morena es quien permanecerá con el poder de las decisiones públicas, por lo que es posible que esta iniciativa de Monreal pueda tener continuidad y, en su caso, aceptarse cuando esté lista. Sin duda, será necesario analizar si la IA se vuelve, por fin, un tema prioritario para el gobierno y, por ende, se propicie su regulación.

Ruta crítica regulatoria

Actualmente, México tiene cierta normativa vigente que ha permitido impulsar el desarrollo de innovación de nuevas tecnologías como la Ley Federal de Telecomunicaciones38 y la Ley de Ciencia y Tecnología39. De igual forma, en materia de protección de datos se tienen dos40 leyes generales41 aprobadas desde el 2010. Incluso, en caso de que exista algún supuesto de discriminación, se tiene la Ley Federal para Prevenir y Eliminar la Discriminación,42 en conjunto a los derechos fundamentales reconocidos en la Constitución y tratados internacionales a los cuales se ha suscrito el país.

¿Es adecuado el marco normativo vigente en México para hacer frente a los riesgos inherentes a la IA? Es la pregunta que indiscutiblemente surge al analizar el andamiaje jurídico vigente. Primero, esta normativa no está pensada para este tipo de tecnología ni para el uso de la misma en el sector privado. Segundo, la ley de discriminación no contempla explícitamente la posibilidad de que un sistema inteligente pueda propiciar actos discriminatorios. De tal forma que, lo único que pudiera proteger a un individuo, es el amparo y los posibles criterios que pueden ser emitidos por órganos colegiados.

El hecho de que lo único que pudiera ser medianamente adecuado ante el impacto de un sesgo de un sistema predictivo inteligente, sea el juicio de amparo, tiene varias implicaciones. Primero, se requerirían de decisiones colegiadas que establezcan criterios al respecto. Estos pudieran no emitirse a la par del desarrollo tecnológico y, por ende, quedar obsoletos en poco tiempo. Además, en México todavía existe vicios en el sistema judicial que reproducen la desigualdad social dejando fuera del acceso a la justicia a amplios sectores de la población.43 Por lo tanto, aminora las posibilidades de conformar criterios judiciales.

Si el juicio de amparo no es completamente óptimo, entonces se necesita de un marco normativo actualizado y creado específicamente para mitigar el impacto de la IA. En este sentido, ¿cuál debería ser la ruta crítica mínima regulatoria que debería tomar el Estado para hacer frente a estos riesgos tecnológicos?

La sola intervención del Estado mediante una regulación de hard law, no garantiza que las medidas tomadas funcionen eficazmente, por lo que el panorama es incierto. Es necesario analizar previamente los costos y beneficios para decidir de qué manera se debe intervenir.44 Para el caso de la IA, se vuelve cada vez más relevante la intervención estatal, pero tendría que establecerse un mecanismo idóneo y proporcional para no afectar a la innovación.

México tiene que sacar provecho de instrumentos de soft law, previo a intentar regular con hard law. Esto pudiera mitigar el impacto de los sesgos por medio de las buenas prácticas y la consecuente reputación corporativa. Lo anterior puede lograrse a través de normas de estandarización como la ISO/IEC 4200145 que establece estándares de calidad en la creación y uso de la IA. Esto puede ser un primer paso para propiciar el comportamiento ético y responsable sin afectar la innovación. A su vez, esto facilitaría la incorporación de instrumentos de hard law cuando se emitan después de analizar los efectos regulatorios de los países pioneros.

Entonces, ¿cuáles son los aspectos mínimos que debería contener para regular a los sistemas inteligentes cuando se emitan estos ordenamientos de hard law? Y, sobre todo, ¿qué elementos debe contener esta normativa para hacer frente al impacto de los sesgos inherentes a la IA? Más allá de que se necesite establecerse definiciones clave, quienes son los sujetos regulados, entre otras, deben definirse criterios de calidad de datos. Esto permitiría mitigar los sesgos, lo cuál sería el objetivo central de esta Ley. Por lo tanto, se enlistan los siguientes puntos46 para garantizar que los datos sean pertinentes, representativos y sin error en una especie de “debido proceso” aplicado a la IA:

1. Obligación a creadores de realizar documentación técnica de sus creaciones mediante una “hoja de datos”

a. En esta documentación pueden constar ciertos cuestionamientos de la procedencia y tratamiento de datos.

2. Obligación de no utilizar parámetros meramente estadísticos

a. Deben analizarse cuestiones éticas y morales, no sólo cuantitativas.

3. Incorporación de un mecanismo que garantice la investigación de reglas, normas y cultura en la etapa de pre entrenamiento del modelo.

a. Esto es debido a que no es claro en qué etapa y en qué medida del pre entrenamiento se propagan los sesgos. Por ende, se necesita la investigación de los datos utilizados en esta etapa y realizar cuestionamientos de reglas, normas y cultura que los rodean.

4. Protecciones procesales para la población

a. Debe haber herramientas como la intervención de sistemas; auditoria de algoritmos; canales de denuncia y; suspensión de funcionamiento del sistema en caso de fallo.

Conclusiones

México se encuentra ante un panorama nunca antes visto que le exige tener una posición interventora bien definida ante el surgimiento e incremento en el uso de IA. Si bien, se han encontrado indicios de que el país ha aprovechado los beneficios de la IA; éste no ha sido capaz de tomar acciones regulatorias precisas para mitigar los posibles daños causados.

Considerando que los datos utilizados para alimentar a un sistema predictivo inteligente presentan un sesgo consustancial y que éste puede provocar un daño sistémico que violente derechos de los particulares provocando nuevas formas de discriminación, se vuelve indispensable la determinación de una ruta crítica regulatoria para el país.

México tiene cierta normativa jurídica vigente para hacer frente a algún daño o controversia derivado de estos sesgos. No obstante, estos ordenamientos están creados bajo paradigmas del derecho clásico y la primera revolución industrial. De tal forma que los retos e implicaciones que surgen de las conductas en torno a IA no son del todo funcionales.

Debe concluirse que el marco normativo vigente para México no es adecuado para hacer frente a los riesgos inherentes a la IA como es el impacto por los sesgos. Es así que el país debe establecer una ruta crítica regulatoria que pueda hacer frente a los desafíos de la IA. A su vez, esta debe ser lo suficientemente flexible como para no resultar un freno a la innovación. De tal forma que un marco regulatorio es complejo y tiene que ser diverso, pues estaría conformado por instrumentos de hard law como una ley federal e instrumentos de soft law como recomendaciones éticas y estándares, por ejemplo, la certificación de la norma ISO/IEC 42001.

* Nota: este texto es un resumen de la tesis para obtener el grado de maestro en derecho por la Escuela de Gobierno y Transformación Pública del Tecnológico de Monterrey:  “Marco regulatorio como medida para mitigar el impacto de los sesgos en sistemas predictivos inteligentes”. Aquí disponible el trabajo completo: https://repositorio.tec.mx/handle/11285/685110

Héctor Ariel Cabello Juárez. Licenciado en Derecho por el Tecnológico de Monterrey y maestro en derecho por la Escuela de Gobierno y Transformación Pública.


1 Chávez, J. (2004). Desarrollo tecnológico en la primera revolución industrial. Norba. Revista de Historia. 17, 93–109. Disponible aquí.

2 García, B. (2021.). Industria 4.0. La cuarta revolución industrial. RiuNet. Universidad Politécnica de Valencia. Disponible aquí.

3 Comisión Económica para América Latina y el Caribe (CEPAL). (2021). Tecnologías digitales para un nuevo futuro (LC/TS.2021/43), Santiago. Disponible aquí.

4 Forbes México. (2020). En transformación digital, México avanzó 3 años en unos meses: Adobe. Disponible aquí.

5 Servicio de Administración Tributaria, (SAT). (2024). Plan maestro 2024: SAT Optimiza Procesos de Fiscalización, recaudación y atención al contribuyente. Gobierno de México. Disponible aquí.

6 Arnold, A. (2023, November 27). La Inteligencia artificial ya es utilizada por gobierno estatal. UAG Media Hub. Disponible aquí.

7 Di Camillo, S (2016). Eîdos: La teoría platónica de las ideas. La Plata: Edulp. (Libros de Cátedra. Sociales). En Memoria Académica. Disponible aquí.

8 Locke, J. (2013). Ensayo sobre el Entendimiento Humano (E. O’Gorman, Trans.). Fondo de Cultura Económica.

9 Norving, P & Russell, S. (2010). Artificial Intelligence. A modern approach. Prentice Hall, New Jersey. 3rd ed. Chapter 1

10 Ludwing, J et. al. (2019). “Discrimination in the Age of Algorithms”, Journal of Legal Analysis. No. 10. Disponible aquí.

11 Smith, G., & Rustagi, I. (2020). Mitigating Bias in Artificial Intelligence: An Equity Fluent Leadership Playbook. Berkeley Haas Center for Equity. Disponible aquí.

12 Barocas, S, et al. (2023). “Fairness and Machine Learning: Limitations and Opportunities”. Disponible aquí.

13 Ídem

14 Acorde a David Lehr y Paul Ohm, existe una concepción tradicional del aprendizaje automático que lo divide en ocho pasos esenciales, los cuales son: i) definición del problema; ii) recolección de datos; iii) limpieza de datos; iv) revisión de resúmenes estadísticos; v) segmentación de datos; vi) selección de modelo; vii) modelo de entrenamiento; viii) implementación

15 Lehr, D & Ohm, P. (2017) “Playing with the Data: What Legal Scholars Should Learn About Machine Learning”. UC Davis Law Review, Vol. 1, No. 2. Pp. 653-717. Disponible aquí.

16 Forrest, K. (2021). When Machines Can Be Judge, Jury, and Executioner: Justice in the Age of Artificial Intelligence. USA. World Scientific Publishing Company.

17 Villa, P. (2019). “Discriminación en el uso de algoritmos predictivos en sentencias penales”. Praxis Legal. Núm. 37.

18 Ibídem

19 HireVue. (n.d). About the company: Leadership & CEO. Disponible aquí.

20 Hamilton, I. (2018). “Amazon built an AI to hire people, but reportedly had to shut it down because it was discriminating against woman”. Business Insider. Disponible aquí.

21 BBC. (2018). “Amazon scrapped sexist AI tool”. Disponible aquí.

22 Conferencia de las Naciones Unidas Sobre Comercio y Desarrollo (UNCTAD). (2022). “Informe sobre las inversiones en el mundo”. Disponible aquí.

23 McGinnis, J. O., Pearce, R., & G. (2019). The Great Disruption: How Machine Intelligence will transform the role of lawyers in the delivery of Legal Services. Actual Problems of Economics and Law, 13(2). Disponible aquí.

24 CEPAL. (2023). Indice Latinoamericano de Inteligencia Artificial. Capítulo B y G. Disponible aquí.

25 Carreón, V. (24 de octubre 2022). Foro sobre plataformas digitales y seguridad social del futuro [sesión de conferencia]. Universidad Autónoma de México.

26 Shaffer, G & Pollack, M. (2009). “Hard vs. Soft Law: Alternatives, Complements and Antagonists in International Governance”. Minnesota Law Review, Vol. 94, pp. 706-99, 2010, Minnesota Legal Studies Research Paper No. 09-23, Disponible aquí.

27 Ídem

28 Asamblea General de las Naciones Unidas. (2017). “A/RES/72/242 Impacto del cambio tecnológico rápido en la consecución de los Objetivos de Desarrollo Sostenible”. Disponible aquí.

29 Secretaria de Relaciones Exteriores. (2017). “Intervención del Secretario de Relaciones Exteriores, Dr. Luis Videgaray Caso Debate general sobre el Impacto del Cambio Tecnológico Rápido en la consecución de los Objetivos de Desarrollo Sostenible”. Misión Permanente de México Ante Naciones Unidas. Disponible aquí.

30 Instituto Federal de Telecomunicaciones. (2019). “Recomendaciones que emite el Consejo Consultivo del Instituto Federal de Telecomunicaciones (Instituto) en relación con Inteligencia Artificial y Telecomunicaciones”. Disponible aquí.

31 The White House. 2022. “Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People”. Disponible aquí.

32 Executive Office of the President. (2023). Executive Order 14110: Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence. Federal Register Volume 88, Issue 210. 88 FR 75191.

33 Chen, Q. (2024). “China’s Emerging Approach to Regulating General-Purpose Artificial Intelligence: Balancing Innovation and Control”. Asia Society Policy Institution. Disponible aquí.

34 European Comission Artificial Intelligence Act.  (2024). Disponible aquí.

35 Parlamento Europeo. (2024). “La Eurocámara aprueba una ley histórica para regular la inteligencia artificial”. Disponible aquí.

36 Congreso de la Unión. (2024). Iniciativa con proyecto de decreto por el que se expide ley federal que regula la inteligencia artificial. Disponible aquí.

37 Grupo Parlamentario Morena. (2024). “Ricardo Monreal invita a ciudadanos a enriquecer iniciativa para regular Inteligencia Artificial”. Disponible aquí.

38 Cámara de Diputados. (2021). “Ley Federal de Telecomunicaciones y Radiodifusión”. México. Disponible aquí.

39 Cámara de Diputados. (2020). “Ley de Ciencia y Tecnología”. México. Disponible aquí.

40 Cámara de Diputados. (2010). “Ley General de Protección de Datos Personales en Posesión de los Particulares”. México. Disponible aquí.

41 Cámara de Diputados. (2017). “Ley General de Protección de Datos Personales en Posesión de Sujetos Obligados”. México. Disponible aquí.

42 Cámara de Diputados. (2023). “Ley Federal para Previenir y Eliminar la Discriminación”. México. Disponible aquí.

43 Casar, M. (2010). “Sistema político mexicano”. México. Oxford University Press, 2010, pp. 111-140.

44 Katona, K. (2022). Regulación de las plataformas OTT en la economía digital [sesión de conferencia]. Foro Académico sobre Competencia y Regulación Digital: Desafíos de las Políticas Regulatorias en Plataformas Digitales y sus Ecosistemas. Tecnológico de Monterrey.

45 ISO. (2024). “ISO/IEC 42001: Information Technology, Artificial Intelligence and Management System”. Disponible aquí.

46 Véase nota al pie de página número 13.

Escribe tu correo para recibir el boletín con nuestras publicaciones destacadas.


Publicado en: Derecho y Tecnología

2 comentarios en “Sesgos en la inteligencia artificial predictiva: la ruta regulatoria para México

  1. El sesgo se establece en la selección de los datos. Y otra fuente de peligro es que se piensa que mientras más datos se usen, mejor. Por ejemplo, si una compañía usa sus datos de contrataciones anteriores, pero había una cultura no escrita de discriminación hacia mujeres o minorías, la IA aprenderá esa cultura y la aplicará en sus recomendaciones.

    Se han hecho experimentos para eliminar de los cv’s datos que indiquen raza o género, pero la IA sigue exhibiendo el mismo comportamiento pues usa otros datos como las escuelas donde estudió el candidato o los lugares donde ha vivido. No es un problema fácil de resolver.

  2. Solucionar los sesgos no es fácil, pero evidenciarlos si es relativamente sencillo. Sólo deben presentarse a la IA CV´s sintéticos en los que la única diferencia entre ellos sea la raza o el género. Mediante técnicas estadísticas sencillas puede establecerse si hay alguna correlación entre ser rechazado y ser de algún grupo vulnerable.

Comentarios cerrados