Buscar
Opinión

Lectura 4:00 min

¿Soberanía tecnológica o censura?

Diana N. Ronquillo | Pendiente Resbaladiza

De acuerdo con diversas notas periodísticas publicadas esta semana, la Vicecoordinadora de Morena en la Cámara de Diputados, Gabriela Jiménez Godoy, sostuvo un encuentro de trabajo con representantes de Google México y Synergia Asuntos Públicos, para buscar acuerdos sobre la regulación de la inteligencia artificial en México.

Según las notas, Jiménez Godoy señaló que la prohibición no es la solución y que los principales objetivos de la regulación son prevenir el uso indebido de la tecnología por parte de redes delictivas y la construcción de un modelo de desarrollo tecnológico soberano, ético e incluyente. No obstante, si revisamos el proyecto de ley que la misma diputada presentó en abril de este año, en realidad nos encontramos con otra iniciativa típica de Morena: mucho lenguaje político, conceptos abstractos, ambiguos y populistas, pobreza en la técnica legislativa y, como siempre, un control gubernamental simulado.

Los vicios legislativos se aprecian desde el nombre propuesto para el nuevo ordenamiento, la “Ley Federal para el Desarrollo Ético, Soberano e Inclusivo de la Inteligencia Artificial”. El título, en línea con la neolengua Morenista, parece más bien propaganda política, en lugar de un ordenamiento jurídico formal.

En cuanto al contenido, la iniciativa prevé un régimen de notoria sobreregulación para los desarrolladores de sistemas de inteligencia artificial. Se regulan conceptos como el “riesgo algorítmico”, el “impacto algorítmico”, la “auditoría algorítmica” y el “sesgo algorítmico”, todos ellos para incrementar la carga regulatoria y responsabilidades de los desarrolladores. Además, se obliga a los desarrolladores a la “reparación del daño algorítmico” para los usuarios que resulten afectados por la toma de “decisiones automatizadas injustas” mediante el uso de sistemas de IA. La industria no sólo se expondría a la arbitrariedad sobre los criterios para definir si una decisión automatizada ha sido injusta, sino que además el ordenamiento parece trasladar a los desarrolladores la responsabilidad íntegra sobre las decisiones que tomen los usuarios de los sistemas de IA, a partir de su interacción con estos.

Por otra parte, la iniciativa prohíbe la IA que utilice técnicas de manipulación subliminal o persuasión psicológica extrema para alterar el comportamiento humano, una restricción tan ambigua que podría abarcar incluso algunas formas comunes de publicidad. Irónicamente, el dictamen también prohíbe los sistemas de IA que realicen vigilancia biométrica masiva en espacios públicos, sin autorización judicial. Parece que la recolección y sistematización de datos biométricos solamente es válida cuando la lleva a cabo el Estado, un monopolio oficial del espionaje.

En cuanto a las sanciones, el dictamen prevé la posibilidad de que las autoridades desactiven un sistema de IA cuando haya causado daño algorítmico, lo que sea que eso signifique. También se establecen sanciones como la amonestación pública, la reparación de daños colectivos y la imposición de multas de hasta 100,000 Unidades de Medida, más de 11 millones de pesos en la actualidad, para los desarrolladores que incumplan con la ley. La autoridad también tendría facultades para ordenar la apertura técnica y controlada del modelo o sistema, aun si éste es propiedad privada. El alcance de este régimen punitivo y de verificación es desproporcionado, e incluso podría configurar una nueva forma de censura.

Por último, la iniciativa contiene un capítulo titulado “Soberanía Tecnológica y Desarrollo Nacional”, en el que se establece, entre otros aspectos, que las autoridades deberán otorgar preferencia a instituciones mexicanas y a modelos con principios éticos en la asignación de contratos, adquisiciones y proyectos públicos que involucren IA. Este trato diferenciado no solamente es ambiguo, abriendo el margen a la corrupción, sino que también podría ser violatorio de tratados internacionales firmados por México.

Ante este panorama, pareciera que el oficialismo está más preocupado porque la inteligencia artificial pueda desmentir su narrativa pública, que por la supuesta protección de los derechos humanos de los usuarios.

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros Newslettersregístrate aquí

Últimas noticias

Noticias Recomendadas