Lectura 8:00 min
Queda sin fecha presentación de ley de inteligencia artificial en el Senado
El proyecto plantea una regulación amplia con estrategia nacional, clasificación de riesgos y nuevas obligaciones, en línea con modelos como el europeo y en un contexto global de rápida adopción y rezago regulatorio.
Panorámica exterior del Senado de la República.
La iniciativa de Ley General de Inteligencia Artificial que impulsa en el Senado la Comisión de Análisis, Seguimiento y Evaluación sobre la Aplicación y Desarrollo de la Inteligencia Artificial en México llegó a la fecha que había fijado para su presentación y, al cierre del martes 21, ya había salido de esa agenda pública.
El 20 de abril, publicaciones de Rolando Zapata Bello y de otras cuentas que difundieron el anuncio hablaban de presentar la propuesta el miércoles 22. Un día después, la comunicación institucional de la comisión dejó atrás esa fecha y habló de presentarla próximamente.
La propuesta busca expedir una ley general para regular y fomentar el uso de la inteligencia artificial en México. En su diseño figuran una Estrategia Nacional de Inteligencia Artificial, una clasificación de riesgos, nuevas instancias de coordinación y un marco de obligaciones para quienes desarrollen, ofrezcan o utilicen estos sistemas.
En paralelo, el Senado ya recibió en febrero una iniciativa de reforma al artículo 73 constitucional para facultar expresamente al Congreso a expedir una Ley General de Inteligencia Artificial. Ese proyecto, presentado por el senador Saúl Monreal Ávila, plantea que la ley establezca principios, bases, normas y lineamientos para el desarrollo, uso, aprovechamiento, investigación, innovación, implementación, transparencia, seguimiento y supervisión de la inteligencia artificial.
El AI Index 2026 de la Universidad de Stanford reporta que la adopción organizacional de inteligencia artificial llegó a 88% en 2025; que la inteligencia artificial generativa alcanzó 53% de adopción poblacional en tres años y que los incidentes documentados subieron a 362. El mismo informe advierte que la seguridad y la gobernanza se han rezagado frente a la velocidad del despliegue técnico y comercial.
La comisión que encabeza Zapata Bello abrió conversatorios, reunió insumos y difundió una propuesta de marco normativo. En ese espacio, la comisión presenta su misión como el análisis del impacto de la inteligencia artificial en diversos sectores, el fomento de su adopción bajo un marco normativo y la vigilancia de principios de transparencia y auditoría sobre algoritmos con efectos relevantes en la vida de las personas.
María Solange Maqueo, directora de la Facultad de Derecho de la Universidad La Salle, ubica una primera dificultad en el trayecto que siguió la iniciativa.
“Es cierto que se organizaron muchos foros sobre inteligencia artificial, pero estos foros tampoco queda claro cómo queda reflejado explícitamente en el texto de la ley”, dijo en entrevista.
En su lectura, la exposición de motivos habla de varias mesas y de hasta ocho iniciativas previas, aunque el articulado deja preguntas abiertas sobre el modo en que todo ese material quedó integrado. Maqueo también identifica la referencia comparada más visible del proyecto.
“Tiene una referencia muy cercana, no idéntica, por supuesto, pero sí muy cercana a la ley de inteligencia artificial de la Unión Europea”, dijo.
Esta cercanía aparece sobre todo en el esquema de riesgos y en la idea de construir una autoridad con capacidad para intervenir cuando la inteligencia artificial se usa en ámbitos sensibles. La influencia europea encaja con una conversación internacional en la que la soberanía tecnológica, la transparencia y la clasificación de riesgos se han vuelto ejes centrales de política pública.
Diagnóstico compartido
Maqueo sostuvo que la inteligencia artificial “potencia muchos riesgos” y menciona entre ellos la suplantación de identidad, las vulneraciones a propiedad intelectual y la manipulación. Esa descripción coincide con la discusión internacional sobre un mercado en el que los modelos líderes son cada vez menos transparentes y los reportes sobre seguridad avanzan con más lentitud que los reportes sobre capacidad.
El AI Index 2026 muestra que casi todos los desarrolladores líderes reportan resultados sobre benchmarks de capacidad, mientras el reporte sobre responsible AI sigue siendo irregular.
Esa base explica una de las coincidencias más claras en torno al proyecto. Maqueo afirmó que “el desarrollo y la utilización de los sistemas de inteligencia artificial no pueden quedar exclusivamente a la autorregulación” y añade que “sí es necesario en ciertos casos la intervención del Estado”.
La comisión plantea un marco normativo que haga compatible la adopción de la inteligencia artificial con principios de seguridad, transparencia, auditoría y protección de derechos. La ley incorpora además una dimensión de política pública más amplia. Entre los puntos que Maqueo consideró positivos aparece la creación de una Estrategia Nacional de Inteligencia Artificial.
Te puede interesar
En su revisión del proyecto mencionó también la alfabetización, la capacitación, los apoyos a la innovación y la creación de espacios controlados para nuevos desarrollos. El AI Index 2026 identifica la soberanía en inteligencia artificial como uno de los principios que más están reordenando la política pública internacional, con más países tratando de ganar margen sobre infraestructura, datos, talento y capacidades propias.
La pretensión de la iniciativa es fijar reglas para el uso de la inteligencia artificial y, al mismo tiempo, dejar una ruta de acción pública en empleo, innovación y desarrollo. El problema aparece cuando esa ambición se traduce en un texto de gran tamaño, con muchas obligaciones y con un nuevo entramado institucional.
Riesgos
La primera objeción está en el poder que tendría la futura Autoridad Nacional de Inteligencia Artificial. Maqueo advirtió que la iniciativa le daría “una amplia discrecionalidad” a esa autoridad y que incluso podría “definir nuevos riesgos más allá de los establecidos en la ley a través de lineamientos generales”.
“Le estás dando el poder a la Autoridad Nacional de Inteligencia Artificial para que pueda incorporar nuevos supuestos que podrían ser objeto de sanción. Esto claramente contraviene el principio constitucional de reserva de ley”, dijo.
Maqueo aseguró que cada vez que se agrega un supuesto de alto riesgo aparecen “registros, evaluaciones de impacto, supervisión e incluso procesos de certificación obligatorios” y que esas cargas implican “costos elevadísimos”.
El señalamiento alcanza a grandes plataformas, desarrolladores pequeños, emprendedores y empresas que quieren incorporar inteligencia artificial a sus procesos productivos o de negocio. En un ecosistema donde conviven gigantes globales y actores locales con mucho menos músculo, esa asimetría pesa.
La misma preocupación aparece en el régimen de responsabilidad. Maqueo cuestiona la responsabilidad solidaria y, sobre todo, la responsabilidad objetiva prevista para distintos actores del ecosistema.
“La responsabilidad objetiva implica un efecto jurídico muy rígido”, dijo, y añadió que puede tener un impacto importante sobre el desarrollo y la adopción de sistemas de inteligencia artificial. Una arquitectura regulatoria de ese tamaño puede alterar el cálculo de riesgo de quienes hoy están empezando a desarrollar o integrar estas herramientas.
El siguiente punto está en la convivencia con otros marcos legales. La ley de inteligencia artificial llegaría a un terreno donde ya existen reglas sobre datos personales, responsabilidades administrativas, libertad de expresión y materias sectoriales. Maqueo alertó sobre “problemas de convergencia, superposiciones, incluso de potenciales conflictos competenciales entre autoridades”.
Si una persona considera que hubo un uso indebido de sus datos dentro de un ecosistema de inteligencia artificial, no queda claro ante qué autoridad tendría que acudir ni bajo qué procedimiento.
Maqueo aseguró que conceptos como desinformación digital o violencia digital pueden interpretarse de manera restrictiva y apartarse de estándares ya desarrollados por tribunales nacionales e interamericanos. Su preocupación apunta a categorías amplias que podrían terminar en procedimientos confusos o en incentivos de sobrecumplimiento por parte de plataformas, proveedores o usuarios.
Te puede interesar
El último gran frente es la capacidad del Estado para operar una ley de este tamaño. Maqueo resume esa duda con una crítica directa. México arrastra problemas en accesibilidad a internet, tratamiento de información personal, supervisión y capacidades institucionales para implementar una regulación sofisticada.
“Ni siquiera cuentas en la actualidad con las capacidades institucionales de supervisión, monitoreo y todo lo que implicaría incluso la propia implementación de la ley”, dijo.
“Empieza a generar, por ejemplo, espacios de sandboxes, empieza a generar espacios controlados de desarrollo. Tú como gobierno fomenta esos desarrollos y vigila su desarrollo más que pensar ahorita en vamos a sancionar”, dijo.
La propuesta no llegó al pleno en la fecha anunciada y, hasta ahora, no tiene nueva fecha de presentación. El proceso legislativo queda pendiente de que la comisión formalice su envío.