Lectura 11:00 min
Más allá de los algoritmos: desafíos y tendencias en la regulación global de la Inteligencia Artificial
En un mundo cada vez más impulsado por la tecnología, la Inteligencia Artificial (IA) se ha consolidado como una fuerza transformadora. A medida que esta innovación avanza, los gobiernos de todo el mundo se esfuerzan por establecer marcos regulatorios y legales que aborden los desafíos y oportunidades que plantea la IA. Por ello, es importante, para poder revisar lo que también está sucediendo en México, explorar los últimos acontecimientos en el debate sobre los alcances y posibilidades de la regulación de la IA en tres jurisdicciones clave: el Reino Unido, la Unión Europea (UE) y Estados Unidos. Las autoridades están adoptando enfoques diversos para enfrentar los desafíos éticos, económicos y sociales que plantea la IA, desde la ambiciosa Ley de Inteligencia Artificial de la UE hasta la propuesta de Ley de Regulación Ética de la Inteligencia Artificial en México, estas acciones reflejan el creciente interés y preocupación por la IA en la escena internacional.
Recientemente, el primer ministro de Gran Bretaña, Rishy Sunak, organizó una reunión en Bletchley Park para convocar a líderes mundiales, ejecutivos de tecnología, académicos y figuras de la sociedad civil, y firmar una declaración internacional respaldada por más de 25 países y la UE, que reconoce la necesidad de abordar los riesgos asociados al desarrollo de la IA. En seguimiento, Francia acogerá una cumbre de seguridad de la IA en 2024. Durante el evento, las Naciones Unidas respaldaron un panel de expertos -similar al Grupo Intergubernamental de Expertos sobre el Cambio Climático-, y las principales empresas tecnológicas acordaron colaborar con los gobiernos en la prueba de sus modelos avanzados de IA antes y después de su lanzamiento. Sin embargo, el consenso general se centró en el miedo inmediato a la desinformación generada por la IA, especialmente en relación con las próximas elecciones en Estados Unidos, India y el Reino Unido. Destacó la opinión de Nick Clegg, de la empresa Meta de Mark Zuckerberg, quien expresó preocupación por esta amenaza a las encuestas relacionadas con los procesos electorales.
Asimismo, todas las delegaciones presentes en Bletchley Park buscaron reclamar la preeminencia en la regulación de la IA, destacando sus respectivos enfoques y capacidades reguladoras. La cumbre generó algunas conclusiones destacadas: en primer lugar, Italia ha prohibido temporalmente ChatGPT, una tecnología de IA de OpenAI, debido a preocupaciones sobre la recopilación y almacenamiento masivos de datos. Otros países europeos, como Alemania, Francia e Irlanda, están siguiendo el caso de cerca. Otra discusión relevante fue la de los derechos de autor en obras creadas por IA.
La legislación en Estados Unidos todavía no aborda de manera definitiva este tema, lo que plantea desafíos legales en cuanto a la propiedad y protección de obras generadas por algoritmos; por ejemplo, el hecho de que algunas obras generadas por IA podrían tener derechos de autor si se puede demostrar que un ser humano ejerció suficiente originalidad en la selección de datos de entrada o en la edición del resultado final, lo que plantea la interrogante sobre cómo ponderar la contribución humana en las obras. Esto implica también que el avance de la IA plantea debates sobre el impacto en el empleo, como se ha visto en la reciente huelga de guionistas y actores de cine que defienden sus fuentes de ingresos ante la posible sustitución de sus trabajos por la IA. Evidentemente, estas señales orientan la conversación pública hacia el pesimismo por la llegada de tiempos turbulentos en la interacción entre la tecnología y la creatividad humana.
Por lo anterior, el presidente Joe Biden lanzó una iniciativa nacional de IA para los Estados Unidos a fin de coordinar la investigación y educación en agencias federales, incluyendo, claro, el impacto de la IA en la propiedad intelectual, con debates sobre si las invenciones generadas pueden ser consideradas como inventos, y si las imágenes de IA están sujetas a derechos de autor. Igualmente, se plantea la preocupación sobre el uso de la IA en violación de derechos humanos y el riesgo de aumentar la desigualdad y amenazar la democracia. Ejemplos de lo anterior ya comienzan a tener relevancia en la opinión pública, como el caso de una herramienta de recursos humanos de la empresa Amazon que mostró sesgos de género en la selección de candidatos. Otros casos relevantes son los de Topkins en Estados Unidos y Eturas en la UE que abordan la preocupación sobre la colusión en la fijación de precios a través de algoritmos; o los de Meta, Google y Amazon, acusadas de abuso de sus posiciones dominantes para obstaculizar la competencia, faltar a la transparencia, y dificultar las investigaciones y regulaciones de los mercados digitales.
Otro caso interesante es el litigio en el que Amazon ha sido acusada de usar un algoritmo secreto llamado “Project Nessie” para aumentar artificialmente los precios de sus productos y monitorear los de la competencia. Esta revelación se dio en el contexto de una queja presentada por la Comisión Federal de Comercio (FTC) donde se acusa a Amazon de violar las leyes antimonopolio de Estados Unidos. Según el Wall Street Journal, Project Nessie ayudó a Amazon a aumentar sus márgenes de beneficio al inflar los precios en diversas categorías de productos. La empresa habría dejado de utilizar este algoritmo en 2019. Además de esta acusación, Amazon también enfrenta una multa multimillonaria por prácticas anticompetitivas. Se espera que estas acusaciones resulten en una mayor supervisión y regulación de las fusiones y adquisiciones en el futuro, y se menciona la posibilidad de "killer acquisitions", que son adquisiciones realizadas para eliminar a competidores potenciales.
Por su parte, la Unión Europea busca innovar en la regulación de la IA para garantizar también el uso benéfico y seguro de esta tecnología, reconociendo sus múltiples bondades, pero acotando su potencial transgresor de derechos. De esto da cuenta una demanda contra la empresa OpenAI por el uso no autorizado de resúmenes de libros protegidos por derechos de autor en su modelo de IA, lo que destaca la necesidad de regulaciones en la divulgación de datos a través de la IA. La Comisión de la UE propuso un marco regulador para la IA que clasifica los sistemas según el riesgo que representan para los usuarios, marcando un hito en la regulación. Asimismo, el Parlamento de la UE trabaja en garantizar lo más posible que la IA se desarrolle en contextos de seguridad, transparencia, respeto al medio ambiente, e inclusión.
La clasificación de sistemas de IA en función del riesgo se despliega en tres categorías: riesgo inaceptable, alto riesgo y riesgo limitado. Los sistemas de IA de riesgo inaceptable se consideran una amenaza y se prohíben, mientras que los de alto riesgo se dividen en dos categorías con el requisito de cumplir con registros y evaluaciones antes de su comercialización. Por su parte, los sistemas de IA de riesgo limitado deben cumplir requisitos de transparencia estableciendo obligaciones de reporte de información para que los usuarios tomen decisiones informadas. En cuanto a los tiempos, las actividades se llevan a cabo lo más velozmente posible. El 14 de junio pasado, los eurodiputados adoptaron su posición sobre la ley de IA y ya se encuentran en negociaciones para alcanzar acuerdos finales este mismo año.
En México, por su parte, también existen iniciativas para regular de manera efectiva la IA en la UE. El diputado Ignacio Loyola Vera (PAN) de México, preocupado por la falta de marco legal, presentó una iniciativa para crear la Ley de Regulación Ética de la Inteligencia Artificial y la Robótica. Esta ley tiene como objetivo regular el uso de estas tecnologías en diferentes ámbitos, como el gubernamental, económico, comercial, administrativo, comunicacional y financiero, de manera ética y legal. La iniciativa propone la creación de lineamientos de políticas públicas para la regulación ética de la Inteligencia Artificial y la Robótica en México. También establece la creación del Consejo Mexicano de Ética para la Inteligencia Artificial y la Robótica, organismo que se propone sea público descentralizado para gestionar una Red Nacional de Estadística de Uso y Monitoreo de la Inteligencia Artificial y la Robótica que recabe datos y promueva el diálogo y la investigación sobre el avance de la IA en nuestro país. La legislación busca promover la creación de Normas Oficiales Mexicanas para el uso beneficioso de la IA y la Robótica, pero respetando los derechos humanos y la igualdad de género, sin discriminación por raza, origen étnico, religión, clase social o posición económica, y procurando la protección de datos personales, derechos humanos, propiedad industrial e intelectual de acuerdo con las leyes vigentes.
El diputado argumenta que la regulación de la IA es necesaria debido a su crecimiento acelerado en México que puede dar lugar a desventajas potenciales si no se regula a tiempo y adecuadamente. México ocupa el quinto lugar en adopción de IA en América Latina, según un estudio de IBM, pero el desconocimiento sobre su uso ha obstaculizado su desarrollo. José Luis Hernández, fundador de White Bx Project, señala que es complicado crear empresas de IA en México debido a la falta de comprensión y clasificación adecuada en entidades como notarías, la Secretaría de Hacienda y Crédito Público, o la Secretaría de Economía.
En el Senado se destaca la actividad que la senadora Alejandra Lagunes ha impulsado para garantizar que los beneficios de esta tecnología alcancen a todos sin ampliar las desigualdades y considerando la diversidad cultural, la perspectiva de género y la atención a grupos vulnerables. Los expertos han señalado en los foros de la Alianza Nacional de Inteligencia Artificial la falta de una política nacional que articule la colaboración entre diversas entidades para promover el conocimiento, innovación, la regulación y la inversión en IA. Un grupo de neurocientíficos aboga por la protección de los "neuroderechos", que incluyen el derecho a la identidad personal, libre albedrío, privacidad mental, protección contra sesgos y acceso equitativo a la potenciación del cerebro; derechos fundamentales para preservar la integridad y la equidad en el uso de la neurotecnología. La preocupación en este ámbito es tan grande que se propone incluir estos derechos en el catálogo de derechos fundamentales en la Declaración Universal de Derechos Humanos.
En conclusión, la elección entre autorregulación y regulación basada en riesgos aún permanece sin una respuesta definitiva. Lo cierto es que es imperativo continuar avanzando en estas deliberaciones para descubrir enfoques más adecuados. Se necesita un ambiente innovador que involucre de manera integral a los sectores privado, académico y social, respaldado por un marco legal que fomente equilibrios. Delegar todo a la autorregulación o inclinarse hacia una regulación con amplia injerencia estatal en la IA podría exponer a violaciones de derechos humanos, como la privacidad de datos o intromisiones en la libertad de expresión, como evidencian denuncias de espionaje a periodistas o informes como el del Freedom House "Freedom on the Net" que puntea a los países según las condiciones que viven para una libertad en línea. La urgencia radica en obtener mayor certeza sobre cómo abordar, prevenir y sancionar prácticas indebidas y a la vez aprovechar, promover y mejorar el uso de la AI para vivir mejor.
*La autora es Directora de Inteligencia Más y maestra en Gobierno y Políticas Públicas en la Universidad Panamericana.