La primera sentencia mexicana asistida por IA

Ilustración: Estelí Meza

La inteligencia artificial (IA) está irrumpiendo en los tribunales del mundo, y México no es la excepción. El 22 de agosto de 2025, un Tribunal Colegiado resolvió una queja en la que, sin petición de parte, utilizó modelos de lenguaje como ChatGPT, Grok y Gemini para fijar el monto de una garantía procesal. La decisión generó la primera tesis en nuestro país que establece lineamientos para el uso de IA en la función jurisdiccional. Aunque el esfuerzo es pionero, también abre un debate urgente: ¿qué significa que la judicatura mexicana empiece a autorregular su interacción con sistemas algorítmicos sin un marco legal previo, sin estándares técnicos claros y sin un escrutinio metodológico robusto?

Aquí examinamos esa resolución, no para descalificarla sino para entender sus implicaciones en tres planos: 1) el contexto procesal que dio origen a la sentencia; 2) la solidez —o fragilidad— del análisis normativo sobre la IA que realizó el Tribunal; y 3) la pertinencia técnica y jurídica del modo en que la IA fue aplicada al caso concreto. Nuestra intención es aportar una reflexión equilibrada: ambos autores tenemos experiencia en el estudio regulatorio de la IA, pero llegamos a conclusiones divergentes sobre si era deseable que un juez mexicano emprendiera esta autorregulación judicial sin parámetros institucionales.

La queja que dio origen a la primera sentencia con IA

El recurso parecía sencillo, incluso si no se hubiera resuelto mediante IA. Se trataba de un juicio de amparo promovido contra una omisión procesal dentro de un juicio de usucapión en el Estado de México. La quejosa alegó que debía ser llamada al procedimiento porque los predios en litigio formaban parte de su patrimonio. Para registrar la demanda ante el Instituto de la Función Registral, el juez de conocimiento le exigió una garantía cuyo monto no fundó ni motivó. La parte inconforme impugnó esta omisión, y el asunto llegó al Tribunal Colegiado únicamente para que se precisara la cuantía adecuada de la fianza.

Hasta ahí, nada novedoso en términos procesales o sustantivos. Después, el Magistrado Ponente decidió, sin consulta a las partes, utilizar la IA para determinar la cuantía. Lo hizo bajo la premisa de que los jueces pueden auxiliarse de herramientas tecnológicas para mejorar la precisión de sus decisiones. Su metodología consistió en tres pasos:

  1. Realizar un breve ejercicio de derecho comparado sobre la regulación internacional de la IA.
  2. Establecer un procedimiento técnico basado en modelos de lenguaje masivos (LLMs).
  3. Solicitar a ChatGPT, Grok y Gemini que calcularan el monto de la garantía siguiendo una fórmula basada en precedentes de la Suprema Corte.

Los tres sistemas arrojaron cifras distintas: 60 081; 64 655.34, y 59 864.98. En lugar de examinar por qué diferían —o de verificar si habían utilizado las fuentes oficiales indicadas—, el Magistrado promedió las cifras y fijó la garantía en 60 000. El resultado fue una decisión transparente, sí, pero técnicamente inconsistente.

Esta resolución dio lugar a una tesis que establece principios rectores para el uso judicial de IA: proporcionalidad, transparencia, protección de datos, aplicabilidad, y supervisión humana. El problema radica en que la tesis descansa sobre un caso cuya metodología es debatible y cuyas omisiones pueden ser significativas. Y, sin embargo, constituye el primer precedente mexicano sobre inteligencia artificial en la judicatura.

¿Puede un juez autorregular el uso de IA?

La primera pregunta de fondo no es técnica, sino institucional: ¿corresponde al juez —y no al Poder Judicial en su conjunto, ni al legislador— dictar reglas sobre el uso de IA en México?

México carece hoy de una ley general sobre inteligencia artificial. No existe regulación sobre el uso de IA en funciones jurisdiccionales, ni un estándar mínimo de práctica profesional que vincule a jueces y abogados sobre herramientas algorítmicas. La autorregulación judicial, como sucedió en este caso, surge en un vacío normativo.

Quienes defienden la decisión sostienen que el Poder Judicial puede emitir reglas internas mediante acuerdos generales del Consejo de la Judicatura Federal (CJF), basándose en los artículos 100° de la Constitución Federal y 81–82° de la Ley Orgánica del Poder Judicial de la Federación. Si el uso de IA es una herramienta de apoyo administrativo-jurisdiccional, el CJF podría regularla, y un tribunal al interpretarla podría desarrollar un precedente. Desde esta óptica, permitir que el Tribunal fije criterios no invade competencias legislativas, sino que llena un vacío para resolver un caso concreto.

Pero esta postura tiene límites. El principio iura novit curia autoriza a los jueces a aplicar el derecho, incluso si las partes no lo invocan, pero no concede facultades para crear de facto un régimen regulatorio de sistemas algorítmicos. La tesis del Tribunal no se limita al caso concreto; formula lineamientos generales sobre IA que rebasan el ámbito estrictamente procesal. La pregunta, entonces, es si este tipo de autorregulación podría comprometer la legitimidad institucional del Poder Judicial al legislar por la vía de los hechos.

Otros países han resuelto estas tensiones de manera más estructurada. Brasil, por ejemplo, adoptó una regulación administrativa clara del uso de IA judicial mediante la Resolución 615/2025 del Conselho Nacional de Justiça, que establece obligaciones de registro, auditorías, identificación de los modelos utilizados y supervisión proporcional al riesgo. Ese modelo ofrece seguridad jurídica tanto para gobernados como para operadores jurisdiccionales. México, en cambio, comenzó por el final: dictó un precedente antes de tener reglas institucionales de base.

Entre la comparación incompleta y la ausencia en América Latina

En su resolución, el Tribunal sustentó la validez del uso de IA en instrumentos internacionales como la Recomendación de Ética para la Inteligencia Artificial de la UNESCO y las Directrices Éticas de la Comisión Europea. Aunque citar estos documentos es un esfuerzo valioso, su utilización puede presentar dos problemas.

Primero, se trata de instrumentos no vinculantes y diseñados para contextos institucionales muy distintos al mexicano. La sentencia menciona los principios, pero no explica cómo se traducen al proceso judicial mexicano ni cómo restringen o habilitan los usos concretos de IA.

Segundo, la resolución ignora el ecosistema institucional latinoamericano y los esfuerzos regionales en esta materia. México no está aislado: organismos nacionales como el INAI y el IFT, o la OCDE y la OEA para América Latina, han emitido lineamientos específicos sobre gobernanza algorítmica, protección de datos, transparencia y sistemas automatizados en función pública. Existen reportes especializados —como el Uso estratégico y responsable de la IA en el sector público en América Latina y el Caribe— que ofrecen marcos más pertinentes que los europeos.

En otras palabras: el Tribunal recurrió a fuentes internacionales, sí, pero dejó fuera aquellas generadas en el país y criterios regionales que pueden ser más próximos a la realidad del sistema mexicano.

El corazón del problema: cómo se aplicó la IA

La pregunta es si, más allá del marco normativo, el uso de IA en el caso concreto fue apropiado. Aquí, ambos autores mantenemos una divergencia.

Para uno de nosotros, el uso de IA fue justificable: la cuantificación de la garantía podía beneficiarse de herramientas que sistematizan información financiera, jurisprudencial o estadística. Nada impide que un juez utilice una calculadora avanzada, una hoja de cálculo o un modelo de lenguaje como ayuda técnica, siempre que mantenga el control de la decisión.

Para el otro autor, el problema no es que se usara IA, sino cómo se usó. La fijación de una garantía implica cálculos aritméticos elementales; delegar esa función a un modelo de lenguaje puede carecer de justificación técnica. Más preocupante aún es que los tres modelos utilizados arrojaron cifras distintas pese a que el Magistrado indicó que debían utilizar datos oficiales del Banco de México. Esa inconsistencia debió haber encendido alarmas metodológicas.

La sentencia, por desgracia, no explica:

  • qué variables utilizaron los sistemas,
  • por qué sus resultados difieren,
  • si alguno usó información inexacta o desactualizada; y,
  • si la fórmula jurídica fue correctamente interpretada por cada modelo.

La decisión de promediar los resultados —y encima redondear hacia abajo— no tiene un fundamento jurídico ni estadístico. Una función jurisdiccional que exige motivación racional terminó dependiendo de un cálculo improvisado.

La transparencia de la sentencia, de forma paradójica, reveló la falta de dominio técnico del juzgador sobre los modelos empleados. No se puede construir la primera tesis mexicana de IA judicial sobre bases metodológicas tan frágiles.

Una oportunidad perdida, pero también un llamado

El uso de IA en la judicatura mexicana es inevitable. Ningún sistema judicial moderno puede ignorar la realidad de que herramientas algorítmicas permiten procesar grandes volúmenes de información, identificar patrones, acelerar cargas de trabajo y, si se usan correctamente, hacer más accesible la justicia.

Pero el entusiasmo tecnológico no puede sustituir al método jurídico. La resolución analizada muestra que, sin preparación técnica, sin estándares institucionales y sin un marco normativo claro, los riesgos son reales: arbitrariedad, opacidad, desigualdad procesal y generación de precedentes defectuosos.

La tesis relativa a esta queja pudo haber sido un parteaguas. Pudo haber fijado los fundamentos para un uso prudente, sólido en la técnica y constitucionalmente respetuoso de la IA en los tribunales. En lugar de ello, se convirtió en una advertencia: si la judicatura mexicana quiere incorporar IA, debe hacerlo con rigor, con controles institucionales y con una comprensión profunda de las herramientas que decide emplear.

Esta primera sentencia mexicana que incorpora IA no debe verse como un fracaso, sino como un recordatorio. La judicatura mexicana debe asumir un liderazgo institucional, no individual, para regular y supervisar el uso de IA en los procesos judiciales. Esa tarea no puede recaer en un solo juez, ni en una tesis aislada, sino en un esfuerzo colectivo que combine técnica, derecho comparado, ciencia de datos y garantías constitucionales.

Ambos autores coincidimos en algo fundamental: la IA debe formar parte de la justicia del presente. Pero no como un atajo, ni como un artilugio, sino como un instrumento que exige la misma disciplina con la que un juez debe aprender a desconfiar de ella. En esa distancia crítica —entre la pluma y el algoritmo— se juega el futuro de nuestra legitimidad judicial.

Marco Clavel

Consultor independiente en temas de derecho y tecnología, ética en el uso de inteligencia artificial, y egresado del programa de White Bx Project en regulación de inteligencia artificial. Su tesis se centró en la regulación de plataformas digitales

Galo Márquez

Profesor en el Tec de Monterrey y la Escuela Libre de Derecho, Asociado en Creel, García-Cuéllar, Aiza y Enríquez, y Magister Juris por la Universidad de Oxford, Reino Unido, donde egresó del programa en Ciencias Computacionales y Derecho

Escribe tu correo para recibir el boletín con nuestras publicaciones destacadas.


Publicado en: Absurdos jurídicos