Lectura 4:00 min
Decálogo de la IA: contradicciones y restricciones

Diana N. Ronquillo | Pendiente Resbaladiza
El jueves pasado la Agencia de Transformación Digital y Telecomunicaciones (ATDT) y la Secretaría de Ciencia, Humanidades, Tecnología e Innovación (Secihti) presentaron la “Declaración de ética y buenas prácticas para el uso y desarrollo de la IA”. En el comunicado que emitieron ambas autoridades de manera conjunta, se describió a esta declaración como una “hoja de ruta” para orientar decisiones de política pública con respecto al uso de la IA, y se precisó que la misma se sustenta en los “Principios de Chapultepec”, también elaborados conjuntamente.
Algunos de los principios que se insertaron en el comunicado oficial han llamado la atención, por una parte, porque son contradictorios con las prácticas que actualmente lleva a cabo el propio Gobierno y, por otro lado, porque su lenguaje ambiguo parece anticipar una regulación restrictiva.
El principio número 10, por ejemplo, establece que “Los datos son un bien público que deben [sic] cuidarse con responsabilidad”. Este principio es controversial, sobre todo considerando que al día siguiente de la presentación del decálogo, el grupo conocido como Chronus informó que había hackeado y filtrado 2.3 TB de información confidencial de 25 dependencias públicas, incluido el IMSS Bienestar y el SAT, exponiendo datos de 36.5 millones de personas. La ATDT emitió una tarjeta informativa en la que no negó frontalmente la filtración, sino que minimizó sus riesgos asegurando que no se han publicado datos “sensibles”, como si la filtración solamente fuera peligrosa para este tipo de datos.
A la controversia hay que sumar las declaraciones que estuvo haciendo el titular de la ATDT durante el mes de enero, con respecto al registro de celulares, en las que garantizó que los datos de los ciudadanos están seguros, y que nadie puede acceder a ellos más que las compañías celulares. No todos los datos son un bien público, y claramente no se están cuidando con responsabilidad, por lo menos por el Gobierno.
De igual forma, el principio número 3 del decálogo establece que “Si una decisión no puede explicarse, no debe automatizarse”. Es entendible, en términos abstractos, que la automatización en la toma de decisiones pueda implicar riesgos, pero es incongruente que el Gobierno nos presuma que protegerá a los particulares de estas decisiones, mientras el SAT ha implementado el uso de la IA, por lo menos desde 2024, para diferenciar al contribuyente que “se porta mal, del que se porta bien”, según una entrevista dada por Gari Flores, Administrador General de Recaudación, en julio de 2024.
¿Entonces las decisiones automatizadas que toma el Gobierno para fines de recaudación sí son éticas, pero las que delega el particular en la IA no lo son? Si los Principios de Chapultepec serán la hoja de ruta para implementar políticas públicas para el uso de la IA, entonces las estrategias actuales de fiscalización del SAT serían inconsistentes con estos, y tendrían que adaptarse.
Por otro lado, hay otros principios que se formularon de manera tan ambigua que dejan un margen amplio para que el Gobierno pueda regular la IA de manera restrictiva. Los principios 4 y 5, por ejemplo, señalan que la IA “Se gobierna mejor cuando se decide en colectivo”, y que “Sólo es valiosa si genera bienestar para las personas”. Por su parte, el principio número 8 indica que el desarrollo de la IA requiere fortalecer “el conocimiento en el país”. Normalmente, este lenguaje no tendría que preocuparnos, pero la neolengua de Morena nos ha enseñado que el “bienestar” y las decisiones “en colectivo” pueden ser muy peligrosas para los derechos humanos. Además, la Presidenta ha mencionado ya, en la conferencia mañanera del 13 de enero, que la regulación de la IA “tiene que ver con el control de la información”, que se encuentra en manos de “las empresas que son dueñas de la plataforma” y que se busca la “democratización de la información”, así que la ambigüedad en los Principios de Chapultepec podría conducirnos a un nuevo intento oficial por controlar la narrativa pública.

