Anthropic vs el Pentágono y la lucha sobre quién controla la IA

A principios de 2026, el Departamento de Defensa de Estados Unidos tomó una decisión que, hace apenas unos años, habría pasado desapercibida fuera de círculos especializados. Declaró a Anthropic —una de las empresas más avanzadas en el desarrollo de inteligencia artificial— como un “supply chain risk” dentro del ecosistema de defensa nacional. La etiqueta no es menor. En la práctica, puede impedir que agencias federales y contratistas trabajen con una empresa considerada riesgosa para la seguridad nacional. Sin embargo, lo que volvió extraordinario el caso no fue la medida en sí, sino su justificación. A diferencia de otras designaciones similares, esta no se basó en espionaje industrial, sabotaje tecnológico o vínculos con adversarios extranjeros, sino en un desacuerdo sobre cómo debía utilizarse la inteligencia artificial en el ámbito de la seguridad nacional.

De acuerdo con la versión de la propia empresa y los documentos judiciales que siguieron, el conflicto surgió cuando Anthropic se negó a eliminar ciertas restricciones al uso de sus modelos de inteligencia artificial en contextos particularmente sensibles, entre ellos la vigilancia masiva doméstica y el desarrollo de sistemas de armas completamente autónomos. Ante esa negativa, el gobierno estadounidense recurrió a una herramienta regulatoria diseñada para otro tipo de amenazas, principalmente externas.

El episodio derivó rápidamente en un litigio federal que ha atraído la atención de actores muy diversos. Pero más allá de los detalles del caso, el conflicto revela una pregunta central: ¿quién define los límites del uso estatal de la inteligencia artificial en una democracia?

De socios tecnológicos a conflicto con el Estado

Durante la última década, la estrategia tecnológica de Estados Unidos ha descansado en una colaboración estrecha entre el Estado y las empresas que desarrollan inteligencia artificial. Silicon Valley no ha sido un actor externo al aparato de seguridad nacional, sino uno de sus principales socios tecnológicos. Esta relación se ha intensificado conforme la inteligencia artificial se ha convertido en una herramienta estratégica para la defensa, el análisis de inteligencia y la ciberseguridad. En ese contexto, empresas como Anthropic, OpenAI o Google DeepMind forman parte de un ecosistema que el propio gobierno estadounidense considera esencial para mantener ventajas tecnológicas frente a otros actores globales.

El conflicto surge cuando esa colaboración tropieza con los límites que algunas empresas han intentado establecer sobre el uso de sus sistemas. En el caso de Anthropic, la compañía adoptó políticas internas que restringen el uso de sus modelos de inteligencia artificial en ciertos contextos, entre ellos la vigilancia masiva doméstica y el desarrollo de sistemas de armas completamente autónomos sin supervisión humana significativa.

De acuerdo con las versiones públicas del caso, el desacuerdo escaló cuando el Departamento de Defensa presionó a la empresa para eliminar esas restricciones en el marco de colaboraciones relacionadas con seguridad nacional. Ante la negativa de la compañía, el gobierno decidió utilizar una herramienta regulatoria excepcional: designar a Anthropic como un riesgo en la cadena de suministro del ecosistema de defensa.

Este tipo de designaciones está pensado para proteger infraestructuras críticas frente a amenazas graves, como sabotaje tecnológico o infiltración por parte de adversarios extranjeros. Utilizar esa herramienta en el contexto de un desacuerdo sobre políticas de uso de inteligencia artificial convirtió rápidamente el episodio en uno de los conflictos más significativos hasta ahora entre el gobierno estadounidense y una empresa líder en IA.

El litigio contra el Pentágono

La respuesta de Anthropic fue acudir a los tribunales federales. En su demanda, la empresa sostiene que la designación como “supply chain risk” constituye un uso indebido de facultades de seguridad nacional. El argumento central es que el marco legal que permite estas designaciones fue diseñado para responder a amenazas externas que puedan comprometer sistemas críticos de defensa. Utilizarlo para resolver desacuerdos sobre las condiciones de uso de un sistema de inteligencia artificial, sostiene la empresa, distorsiona el propósito original de la legislación y genera un precedente problemático para la relación entre el gobierno y el sector tecnológico.

La relevancia del caso provocó rápidamente la presentación de diversos amicus curiae. Un grupo de ex secretarios de las fuerzas armadas y altos mandos militares retirados advierte que utilizar instrumentos de seguridad nacional para castigar desacuerdos con proveedores tecnológicos puede erosionar la confianza entre el sector privado y el aparato de defensa, además de debilitar el marco institucional que rige la contratación pública en áreas estratégicas.1 Otros escritos provienen de la propia comunidad tecnológica. Un grupo de ingenieros e investigadores que trabajan en empresas líderes de inteligencia artificial —incluyendo empleados de OpenAI y Google— sostiene que las restricciones adoptadas por Anthropic responden a preocupaciones ampliamente discutidas dentro del propio campo de investigación, particularmente en relación con el uso de sistemas de IA para vigilancia masiva doméstica y armas completamente autónomas. 2

También han intervenido organizaciones de libertades civiles como la Electronic Frontier Foundation y el Cato Institute, que advierten que el caso podría tener implicaciones constitucionales. Si el gobierno utilizó su poder regulatorio para presionar a una empresa a modificar el diseño o las restricciones de sus sistemas de inteligencia artificial, argumentan, el conflicto podría implicar una forma de coerción estatal incompatible con principios básicos de libertad de expresión.3

En conjunto, estos escritos muestran que el litigio trasciende el caso particular de una empresa. Lo que está en juego es una pregunta más amplia: hasta qué punto puede el Estado utilizar instrumentos de seguridad nacional para moldear el desarrollo y las condiciones de uso de tecnologías estratégicas.

Inteligencia artificial, ideología y poder estatal

Más allá de sus implicaciones jurídicas inmediatas, el caso Anthropic revela una dimensión menos evidente pero igualmente importante: el papel de las visiones ideológicas sobre el uso de la tecnología en el poder estatal. El conflicto no surge únicamente de un desacuerdo técnico o contractual. En el fondo refleja visiones distintas sobre el papel que deben desempeñar los sistemas de inteligencia artificial en la seguridad nacional.

Por un lado, algunas empresas del sector han adoptado políticas internas que buscan limitar ciertos usos de la tecnología, particularmente aquellos que podrían facilitar vigilancia masiva doméstica o la automatización de decisiones letales. Estas restricciones responden a una corriente cada vez más influyente dentro del propio campo de investigación en inteligencia artificial, que considera necesario establecer límites antes de que las capacidades tecnológicas superen la capacidad institucional para controlarlas.

Por otro lado, dentro de las instituciones de seguridad nacional existe una visión distinta. Desde esta perspectiva, las tecnologías de inteligencia artificial constituyen herramientas estratégicas cuya integración rápida en sistemas de defensa, inteligencia y vigilancia resulta fundamental para mantener ventajas militares y geopolíticas frente a otros actores globales. Bajo esa lógica, las restricciones impuestas por empresas privadas pueden interpretarse no como salvaguardas éticas, sino como obstáculos al margen de acción del Estado.

Es en esa tensión donde la ideología comienza a desempeñar un papel relevante. Este conflicto ilustra los límites de confiar en principios éticos corporativos para regular tecnologías estratégicas. Cuando estos principios entran en conflicto con prioridades de seguridad nacional—o incluso con sus propios incentivos económicos—la capacidad de estas empresas para sostenerlos frente al poder del Estado se ve severamente mermada. Desde esta perspectiva, el caso anticipa un problema más amplio para las democracias contemporáneas. A medida que los sistemas de inteligencia artificial se integran en funciones de vigilancia, análisis de información y seguridad nacional, la pregunta central ya no será únicamente quién desarrolla estas tecnologías, sino quién decide cómo pueden utilizarse.

México ante la gobernanza de la inteligencia artificial

Aunque el litigio ocurre en Estados Unidos, las tensiones que revela no son exclusivas de ese contexto. México comienza a entrar en una etapa similar de construcción institucional en materia de seguridad digital. A finales de 2025, el gobierno federal presentó el Plan Nacional de Ciberseguridad 2025–2030, cuyo objetivo es fortalecer la resiliencia digital del Estado mexicano y posicionar al país como un referente regional en la gobernanza de la ciberseguridad. El documento identifica como amenazas prioritarias la ciberdelincuencia organizada, las tensiones geopolíticas y los riesgos emergentes derivados del uso de inteligencia artificial. Asimismo, reconoce que tecnologías como los deepfakes, la suplantación de voz sintética y los ataques automatizados mediante inteligencia artificial amplían significativamente las capacidades de actores criminales y estatales en el entorno digital. En respuesta, el Plan propone una estrategia gradual que incluye la creación de capacidades institucionales especializadas y, en fases posteriores, la integración de inteligencia artificial en sistemas de defensa cibernética. De forma paralela, la Política General de Ciberseguridad para la Administración Pública Federal establece un marco institucional para coordinar la gestión de riesgos digitales, fortalecer la gobernanza interinstitucional y asegurar la protección de infraestructuras críticas y cadenas de suministro tecnológicas

Estas iniciativas reflejan un cambio importante: la ciberseguridad ya no se presenta únicamente como un asunto técnico, sino como un componente estratégico para la estabilidad institucional y la protección de derechos en el entorno digital. Sin embargo, conforme tecnologías como la inteligencia artificial comiencen a integrarse en funciones de seguridad nacional, vigilancia o análisis gubernamental, México enfrentará inevitablemente preguntas similares a las que hoy emergen en Estados Unidos. El caso Anthropic muestra que estos conflictos no son únicamente regulatorios o comerciales. En el fondo, plantean una cuestión institucional más profunda: quién define los límites del uso estatal de tecnologías capaces de analizar, clasificar e intervenir sobre la sociedad a gran escala.

En ese sentido, el caso Anthropic sugiere que la gobernanza de la inteligencia artificial no será definida únicamente por ingenieros, mercados o avances tecnológicos. En última instancia, se decidirá en el terreno más antiguo de la política: el de los límites del poder estatal. Y conforme estas tecnologías se integren en funciones de vigilancia, seguridad y defensa, la pregunta central para las democracias no será solamente qué puede hacer la inteligencia artificial, sino quién tiene la autoridad para decidir cómo debe usarse.

Héctor Armando Salinas Olivares

Académico y experto en derecho, con una sólida trayectoria en el ámbito de los derechos humanos y la cooperación internacional.

  1. Former Service Secretaries and Retired Senior Military Officers, Brief of Amici Curiae in Support of Plaintiff’s Motion for Preliminary Relief, Anthropic PBC v. U.S. Department of War, No. 3:26-cv-01996 (N.D. Cal. Mar. 10, 2026).
  2. Employees of OpenAI and Google (in their personal capacities), Brief of Amici Curiae in Support of Plaintiff’s Motion for a Temporary Restraining Order, Anthropic PBC v. U.S. Department of War, No. 3:26-cv-01996 (N.D. Cal. Mar. 9, 2026)
  3. Foundation for Individual Rights and Expression et al., Brief of Amici Curiae in Support of Plaintiff’s Motion for Temporary Restraining Order, Preliminary Injunction, or Section 705 Stay, Anthropic PBC v. U.S. Department of War, No. 3:26-cv-01996 (N.D. Cal. Mar. 9, 2026).

Escribe tu correo para recibir el boletín con nuestras publicaciones destacadas.


Publicado en: Derecho y Tecnología

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *