Buscar
Tecnología

Lectura 6:00 min

México reconfigura su gobernanza de datos en medio del vacío regulatorio de la IA

Tras la extinción del INAI y el traslado de funciones al Ejecutivo, México discute estándares, auditorías y evaluaciones de impacto para sistemas de IA de alto riesgo, en un entorno donde modelos ya influyen en decisiones automatizadas sin obligaciones claras de transparencia o explicación.

main image

La CURP biométricaPixabay

Rodrigo Riquelme

La protección de datos entró a una etapa de reacomodo institucional en México mientras la inteligencia artificial se integra a procesos cotidianos de trabajo, con riesgos que cruzan privacidad, seguridad, identidad y confianza en transacciones digitales, de acuerdo con especialistas que participaron en el I Foro Internacional de Protección de Datos Personales, organizado por la Academia Mexicana de Ciberseguridad y Derecho Digital (AMCID). 

“En el tema de inteligencia artificial, pues no hay una regulación de ninguna manera”, dijo Luis Gustavo Parra, comisionado del Instituto de Transparencia, Acceso a la Información Pública y Protección de Datos Personales del Estado de México y Municipios (INFOEM), al describir el vacío normativo frente a una tecnología que empuja decisiones automatizadas en ámbitos como crédito, contratación y servicios.

Parra ligó ese vacío con un cambio estructural en la gobernanza de datos personales en México. En su recuento, en 2025 entró en vigor la extinción del órgano garante, el INAI, y sus funciones pasaron a la Secretaría Anticorrupción y Buen Gobierno a través de una unidad especializada en protección de datos personales para el sector público federal, mientras el régimen de particulares continúa como referencia para el ámbito privado.

Ese reacomodo, dijo, llega con tareas pendientes. Planteó revisar el conjunto normativo y avanzar hacia estándares más consistentes, en un ecosistema donde el flujo de datos atraviesa sectores y cadenas completas.

Un país que usa IA sin una regla común

Parra describió un mapa internacional donde conviven enfoques regulatorios de la IA distintos. Habló de Estados Unidos, con reglas sectoriales y liderazgo estatal; de China, con un esquema que entrelaza innovación y control, y de Brasil, como referencia regional por su ley general de protección de datos, que incorpora revisiones humanas obligatorias en decisiones automatizadas y un régimen de responsabilidad civil objetiva para sistemas de alto riesgo.

“Estamos ante una carrera hacia la desregulación para ganar la competencia técnica o hacia una mayor protección de libertades y derechos”, dijo el comisionado.

En esa comparación, México aparece con iniciativas dispersas y sin un marco específico para la inteligencia artificial. Parra advirtió que, en ese entorno, pueden operar riesgos similares a los que se observan en otros países cuando modelos se aplican a la evaluación crediticia o la selección de personal y terminan discriminando por género o zona geográfica, sobre todo cuando no existe transparencia suficiente para auditar datos y algoritmos.

“En México podemos correr riesgos similares en sistemas de evaluación crediticia o de selección de personal que hoy puedan estar discriminando por género, zona geográfica. Si además no hay transparencia y no podemos auditar esos datos, esos algoritmos”, dijo.

Su propuesta de regulación mexicana de IA se apoyó en un enfoque basado en riesgos y obligaciones proporcionales. Para aquellos sistemas de alto riesgo, colocó como requisito evaluaciones de impacto relativas a la protección de datos y auditorías algorítmicas obligatorias antes del despliegue, junto con una coordinación interinstitucional para cerrar vacíos legales.

Parra insistió en fortalecer el derecho a la explicación para que las personas comprendan y puedan cuestionar decisiones automatizadas que las afecten, y en construir mecanismos para mitigación de sesgos. En el plano técnico, colocó sobre la mesa las herramientas para reducir la exposición de datos y los riesgos de reidentificación, como privacidad por diseño, privacidad diferencial, aprendizaje federado y técnicas de cifrado que permiten operar con menos exposición de información.

Cuando el dato entra al chatbot

“Lo que estamos tecleando puede ser un correo, puede ser un reporte, en muchas ocasiones casos clínicos, listados de alumnos. Realmente no es solo una conversación”, dijo Juan Manuel Delva, profesor investigador de la Universidad de Guadalajara, al describir cómo los chatbots y modelos de lenguaje ya se usan con información real en actividades ordinarias.

Delva pidió mover la conversación de la intuición a preguntas de gobernanza: qué se guarda, por cuánto tiempo, quién accede y con qué base. Esto se debe a que cerrar una pestaña no resuelve lo que ya se compartió y la plataforma puede retener registros, memorias y derivados bajo reglas internas y condiciones específicas.

“Los chats temporales, en la mayoría de los casos, duran 30 días, por un elemento de seguridad”, dijo.

La retención, añadió, puede variar entre plataformas y extenderse por reglas internas, litigios u órdenes legales, lo que vuelve indispensable documentar usos y configuraciones. En ese mismo terreno advirtió sobre una práctica que suele verse como colaboración y termina abriendo una puerta de exposición.

“Al momento de compartir en un modelo de LLM, estamos indexando la conversación en Google, lo estamos indexando en algunos buscadores y eso prácticamente se hace público”, dijo.

Delva explicó que los ataques también pueden ocurrir en la capa semántica, a través del lenguaje. Puso como ejemplos la inyección de prompts y la exposición de información sensible, cuando el modelo termina revelando credenciales o identificadores por falta de controles. La conclusión es que la vida útil del dato rebasa a la sesión, por lo que el control se decide entre tecnología, capacitación, políticas internas y disciplina de uso.

Usurpación de identidad

“Esto no es algo que nos tengamos que imaginar. La ciberseguridad no solamente protege datos, protege identidades, protege reputaciones y además algo muy importante que es la confianza en la economía digital”, dijo Cintia Solís, doctora en derecho, especializada en derecho digital, protección de datos, ciberseguridad y gobernanza de internet.

Solís describió casos donde figuras públicas aparecen en videos falsos (deepfakes) vinculados a supuestas oportunidades de inversión o beneficios, un patrón que combina ingeniería social con tecnología generativa. También ubicó la suplantación como un delito que suele ser medio, cometido para habilitar otras conductas ilícitas, y apuntó que el fenómeno venía creciendo antes del auge de IA generativa, con tecnologías que facilitan el acceso a credenciales y la automatización del engaño.

En su propuesta legal, Solís habló de la falta de homologación del tipo penal de usurpación de identidad y de la necesidad de armonizarlo a nivel federal, además de actualizar el marco de datos personales para atender con mayor claridad los datos biométricos sintéticos. Del lado operativo, la abogada colocó el cuello de botella en la atribución y la prueba, sobre todo cuando se trata de plataformas internacionales, y pidió cooperación internacional efectiva con referencia a instrumentos de cooperación en ciberdelincuencia.

“Necesitamos cooperación internacional efectiva”, dijo.

La gobernanza de datos, la adopción de IA y la defensa de identidad operan como un mismo problema. El vacío regulatorio de la IA dejó de ser un tema abstracto. Se volvió un problema de arquitectura institucional, de práctica organizacional y de capacidad de respuesta ante fraude y suplantación, en un momento donde los modelos ya están en el flujo de trabajo y los incentivos de abuso se adaptan al ritmo de la tecnología.

rodrigo.riquelme@eleconomista.mx

Rodrigo Riquelme

Reportero de Tecnología

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros Newslettersregístrate aquí
tracking reference image

Últimas noticias

Noticias Recomendadas

Suscríbete