Lectura 5:00 min
Inteligencia Artificial en elecciones y democracia
Jorge Bravo | En comunicación
La presidenta Claudia Sheinbaum anunció que la próxima reforma electoral incluirá reglas para el uso de la Inteligencia Artificial en campañas y multas por su mal uso. Dijo que la iniciativa llegará pronto y que buscará además reducir el costo de las elecciones. Su declaración adelanta un debate complejo sobre cómo proteger los principios de la democracia y la integridad del voto sin ahogar la innovación.
La Unión Europea fue pionera en encarar la desinformación y las noticias falsas a través de un código de conducta y leyes digitales que exigen transparencia de las plataformas de redes sociales y medidas como retiro inmediato de contenidos manipulados con la intención de confundir o engañar a los electores. La IA todavía no tenía el uso que actualmente tiene, con múltiples modelos de lenguaje, aplicaciones y agentes.
En algunos países comienza a abordarse el tema. Estados Unidos vivió en 2024 la emergencia de leyes estatales que prohíben o restringen deepfakes en periodos electorales. En el caso de un sistema federal como el estadounidense, la respuesta fragmentada crea zonas grises que complican la aplicación de una norma general.
Otros países han optado por proteger la imagen y la voz de las personas, como Dinamarca, preocupada en temas de derechos de autor para frenar deepfakes. Corea del Sur endureció las sanciones para el contenido sexual manipulado. Estas medidas no están previstas en una ley electoral, pero ilustran la tendencia a castigar usos dañinos contra las personas y su imagen de la IA.
La IA Generativa facilita producir texto, audio e imagen falsos a gran velocidad y con un enorme realismo. Si a eso se suman mensajes y contenidos falsos o sacados de contexto, eso genera una preocupación aún mayor si lo que se pretende es que en elecciones el ciudadano reciba información veraz, objetiva y oportuna.
Un deepfake convincente puede sembrar duda sobre un candidato, alterar una narrativa o impedir que un elector confíe en la información que recibe. Generar miles de contenidos microsegmentados con mensajes falsos agrava el daño. La posibilidad de combinar bots, IA y compra de espacios digitales para difundir contenidos alterados aumenta el riesgo de manipulación masiva. La velocidad y la escala de la IA pueden erosionar las defensas democráticas y la libre elección de los ciudadanos
¿Cómo regular la IA en elecciones sin dañar la libertad de expresión ni de prensa ni la innovación? Hay que definir con claridad conductas prohibidas, pero no olvidemos que la tecnología está en constante evolución, lo mismo que las estrategias de comunicación política.
La ley debe centrar las sanciones sólo en usos intencionales que busquen engañar o invalidar el voto, pero en los procesos electorales cada caso es diferente e inédito. ¿Quienes serán los sujetos obligados de la regulación y las sanciones? Las medidas cautelares y las multas deben aplicarse a partidos y candidatos que difundan contenido falso que afecte el proceso. ¿También debe incluirse a medios de comunicación, periodistas, redes sociales, influencers o plataformas generadoras de contenido artificial?
Algunas prácticas no limitan el uso de la IA sino que exigen que la tecnología que produce contenidos políticos incorpore marca de origen o metadata que permita identificar su procedencia. Esta transparencia facilita la responsabilidad y el control.
Otra tendencia es colocar parte de la responsabilidad y la solución en las plataformas y empresas tecnológicas obligadas a detectar y etiquetar contenido sintético, ofrecer canales de denuncia y conservar registros de contratación de anuncios políticos. La regulación permite auditorías y acceso controlado de autoridades electorales para verificar prácticas.
Es evidente que el periodismo y los usos cotidianos de IA necesitan excepciones. Un medio de comunicación que use IA para generar imágenes o transcribir declaraciones puede etiquetar esos contenidos, pero de ninguna manera se debe obstaculizar su función informativa ni la libertad de expresión. La ética periodística y la contrastación deben ser la norma más que la censura o la prohibición.
Sancionar el uso de herramientas de IA sería absurdo. La ley debe sancionar la conducta y al actor cuando se prueba la indubitable intención de engañar o confundir. ¿Se debe multar a una plataforma por no etiquetar un video manipulado, un audio sintético o multar a un candidato por difundirlo sin identificarlo? Criminalizar el uso de herramientas daña la libertad de expresión y la innovación.
La IA evoluciona demasiado rápido. Legislaciones rígidas pueden quedar obsoletas o propiciar otras prácticas fuera de la norma. Organismos como el International Foundation for Electoral Systems (IFES) recomiendan formación y alfabetización tecnológica de autoridades electorales y pruebas piloto antes que regulaciones prohibitivas.
Hay riesgos de legislar antes de tiempo. Definiciones vagas pueden dar paso a censura política. Sanciones excesivas pueden inhibir investigación y periodismo. Una ley pensada para frenar deepfakes podría penalizar sátira legítima o mensajes críticos. La ley debe contener definiciones precisas, protección de la libertad de expresión y vías de apelación rápidas.
Recomiendo un conjunto mínimo de principios. Transparencia. Proporcionalidad. Responsabilidad. Prevención del daño. Protección de la libertad de expresión y de prensa. Supervisión técnica independiente. Estos principios permiten diseñar reglas que castiguen el engaño sin prohibir la herramienta. El objetivo no debe ser prohibir la IA, sino garantizar que la democracia siga residiendo en la libre elección de los ciudadanos.
X: @beltmondi