Lectura 6:00 min
Anthropic, el Pentágono y las líneas rojas de la IA en México
Con solo 8% de adopción empresarial y alta dependencia de modelos estadounidenses y chinos, México queda expuesto a decisiones regulatorias y militares tomadas fuera de su jurisdicción.
Logo del Pentágono / Anthropic y OpenAI.
La disputa entre Anthropic y el Departamento de Guerra de Estados Unidos colocó a la inteligencia artificial en el centro de una tensión abierta entre la seguridad nacional, la ética tecnológica y el mercado global.
En los comunicados publicados por la empresa, el conflicto gira en torno a dos excepciones que Anthropic afirma haber intentado preservar en sus negociaciones para el uso de su modelo Claude en entornos militares. La primera es impedir la vigilancia masiva doméstica de ciudadanos estadounidenses. La segunda es evitar el despliegue de modelos de frontera en armas plenamente autónomas.
Te puede interesar
La compañía sostiene que la exigencia gubernamental fue permitir “cualquier uso lícito” dentro de contratos con el Departamento de Guerra, y que la negativa a eliminar esas salvaguardas derivó en la instrucción del secretario Pete Hegseth de designar a Anthropic como “riesgo de cadena de suministro”. Esta categoría se ha utilizado históricamente frente a adversarios estratégicos de Estados Unidos y, en caso de formalizarse, aplicaría a contratos del Departamento de Guerra sin extenderse automáticamente al uso comercial general de Claude.
Más allá del desenlace jurídico, el episodio revela un hecho estructural. Los modelos de frontera, como Claude de Anthropic, pero también ChatGPT de OpenAI y Gemini de Google, forman parte del aparato de seguridad estadounidense.
Anthropic advierte que Claude está desplegado en agencias de defensa para análisis de inteligencia, planeación operativa, ciberoperaciones y simulación. Cuando el principal comprador institucional del mundo entra en fricción con un proveedor de IA, el impacto trasciende la relación bilateral. Se filtra hacia la cadena de suministro global y hacia los países que consumen esos modelos y México es uno de ellos.
Te puede interesar
Adopción temprana y dependencia tecnológica
El informe “Inteligencia artificial en México: de la promesa al impacto económico”, elaborado por el Centro México Digital, sitúa la adopción de sistemas de inteligencia artificial en 8% de las empresas de 10 o más empleados en México.
La cifra contrasta con el promedio de la OCDE y subraya brechas internas por tamaño de empresa, infraestructura y capacidades previas. El estudio advierte que los próximos años serán decisivos para capturar beneficios económicos asociados a la IA, y que el impacto depende de condiciones habilitadoras como el capital humano, la infraestructura digital, la inversión y la calidad institucional.
La mayoría de los modelos de frontera utilizados en México provienen de empresas estadounidenses o chinas. De acuerdo con datos de Statcounter, ChatGPT domina el mercado mexicano de IA generativa, con 81.28% de cuota de mercado; mientras que Gemini tiene 9.76%; Perplexity, 4.33%; Copilot, 3.1%, y Claude, 0.72 por ciento.
Te puede interesar
La discusión en Washington sobre límites de uso, vigilancia o autonomía letal no es abstracta para el mercado mexicano. Afecta la estabilidad de proveedores, las condiciones contractuales y, eventualmente, el marco reputacional bajo el cual se adopta la tecnología.
Modelos pequeños
Salma Jalife, directora del Centro México Digital, planteó en la presentación del informe que la conversación sobre inteligencia artificial debe comenzar por una toma de conciencia sobre su dimensión material.
“Yo voy a que se concientice generalmente la población y a quienes van a utilizar la inteligencia artificial de las dimensiones y la infraestructura que se requiere”, dijo.
Jalife advirtió que replicar un chat o una nube a escala requiere “muchísima capacidad de cómputo, de procesamiento, de almacenamiento” y una infraestructura robusta que soporte estructuras de inteligencia artificial, sobre todo generativa.
La advertencia introduce un elemento central para el debate mexicano. Las líneas rojas no son solo normativas. También son de inversión y capacidad instalada. Frente a la dependencia de grandes modelos externos, Jalife apuntó a una alternativa intermedia.
“Se pueden establecer lo que se llaman los small language models, donde puedes tú acondicionar a que las reglas de estos small language models se parezcan más en los datos que utilizan a las particularidades de nuestro país”, dijo.
Jalife mencionó un caso en Veracruz donde una empresa mexicana desarrolla este tipo de soluciones para apoyar a otras compañías en la protección de datos. La lógica es que las infraestructuras controladas permiten que la información sensible no salga del país y que el entrenamiento o ajuste de modelos ocurra dentro de redes cerradas.
“Que los datos no salgan del país, para que la información que está generándose nueva con respecto al uso de estos language models esté circulando dentro de una red cerrada y eso tenga la posibilidad de que nosotros vayamos construyendo nuestro futuro sin estar dando la información al exterior”, dijo y matizó que no todo dato requiere este grado de protección.
“No importa, si los datos no son sensibles, no le veo problema de que estén circulando por todo el mundo. Cuando los datos son sensibles es cuando uno debe de cuidar que esa información esté en un ambiente controlado”, dijo.
Esa distinción dialoga directamente con la controversia estadounidense. La línea roja de Anthropic sobre la vigilancia masiva apunta precisamente al tratamiento de datos sensibles a gran escala. En México, la discusión sobre soberanía tecnológica puede evitar extremos si delimita con claridad qué información amerita entornos controlados y cuál puede integrarse a ecosistemas globales sin comprometer derechos.
Soberanía tecnológica
Salma Jalife enmarcó el debate sobre inteligencia artificial en una competencia global entre dos polos. “Sabemos que hay dos líderes, Estados Unidos y China, trabajando el tema de inteligencia artificial desde el punto de vista geopolítico y tecnológico”, dijo, y añadió que otras regiones observan esa carrera para decidir “si regulan o no regulan”.
Vinculó esa lectura con el lugar de México en el mercado de modelos. Planteó que el uso de herramientas estadounidenses y chinas tiende a expandirse como un hecho práctico, en un contexto donde la oferta local de modelos de frontera es limitada y donde la discusión pública todavía busca definiciones sobre soberanía tecnológica y gobernanza.
Te puede interesar
Jalife sostuvo que el país enfrenta una decisión de modelo, con implicaciones industriales y regulatorias. De acuerdo con la especialista, México podría “trabajar en un modelo que sea propio para México y probablemente para América Latina”, combinando elementos de los modelos europeos, chinos y estadounidenses, con el objetivo de desarrollar capacidades propias y evitar quedarse en un rol de consumo.