Legisladores usan inteligencia artificial en sus intervenciones en el Congreso

Los legisladores del Partido Verde son los que más usan IA en sus intervenciones.

main image

Foto: Rodrigo Riquelme

Rodrigo Riquelme

Los legisladores mexicanos, tanto diputados como senadores, usan los modelos de lenguaje de inteligencia artificial (IA), como ChatGPT y Gemini, para realizar sus intervenciones y dictámenes en el Congreso de la República.

De acuerdo con el estudio "La tribuna y el algoritmo", realizado por Sergio Bárcena Juárez, director de la consultoría Buró Parlamentario, a partir de septiembre de 2024, el uso de IA en las intervenciones de los legisladores mexicanos comenzó a aumentar de forma significativa. El documento muestra que los legisladores que más usan la IA para realizar sus intervenciones y dictámenes pertenecen a la bancada del Partido Verde (PVEM), los cuales usan esta tecnología el doble que los legisladores de los demás partidos.

El estudio se presentó en la Sala de Comparecencias del Senado de la República en el marco de la Toma de Protesta del Consejo Directivo de la Asociación Mexicana de Internet (AIMX).

Subir a tribuna y escribir con IA  

De acuerdo con Bárcena, en el Congreso, subir a tribuna mantiene un peso simbólico sobre quién habla, en nombre de quién y por qué la deliberación pública sostiene la legitimidad política. El trabajo de Bárcena plantea que la IA no sólo acelera el acceso a información o el procesamiento, también puede intervenir directamente en la producción del lenguaje, que es el núcleo operativo de la representación.

La investigación construyó un dataset con versiones estenográficas del Diario de los Debates, con extracción automatizada del texto íntegro, fecha, persona oradora y metadatos de modalidad. La ventana temporal cubre de septiembre de 2021 a octubre de 2025, con 123,528 intervenciones descargadas en enero de 2026. Tras filtros por comparabilidad, el corpus final se redujo a 13,092 intervenciones de tribuna, con más de 6.8 millones de palabras y una longitud promedio cercana a 511 palabras por intervención.

El estudio aplica dos rutas metodológicas que buscan señales consistentes, sin prometer una detección perfecta. Una mide la predictibilidad interna del lenguaje mediante indicadores como perplejidad y entropía. La otra identifica convergencia retórica, con huellas de palabras, frases y estructuras que aparecen con frecuencia en textos generados por modelos. En la explicación pública, el autor subrayó el límite actual de la detección automática a gran escala.

“Todavía no hay un sistema que detecte 100% inteligencia artificial y menos cuando son datos lingüísticos masivos”, dijo Bárcena.

PVEM, el que más usa IA

La evidencia del documento se concentra en un quiebre temporal. Bárcena marcó septiembre de 2024 como el punto a partir del cual las señales aumentan y se sostienen.  En paralelo, el estudio sistematiza un conjunto de huellas con alta cobertura, entre ellas palabras como “claro”, “visión” y “eficiencia”, además de patrones retóricos recurrentes y la estructura enumerativa “primero, segundo, tercero”.

En el recorte de 4,000 discursos posteriores a septiembre de 2024, el estudio reporta diferencias por partido en la densidad de señales. El Partido Verde (PVEM) aparece con una proporción cercana al doble del resto.

“El Partido Verde en casi el doble que el resto de los demás, 10% de esas 4,000 las encontramos sospechosas, pero en el caso del Partido Verde fueron 20%”, dijo.

El hallazgo convive con un paquete de riesgos que el documento enumera. La IA puede reducir los tiempos de preparación, mejorar la claridad y la accesibilidad del discurso, además de ampliar la capacidad de una respuesta informada. En el otro extremo, el texto advierte sobre dudas de autoría real, sobre la dilución de responsabilidad individual, la homogeneización del discurso y la dependencia de infraestructura tecnológica privada.

“Consideramos que sí debe ser usada siempre como un apoyo, que haya un registro obligatorio del uso de inteligencia artificial, es decir, que si un dictamen se permitió con la asistencia de inteligencia artificial que nos lo hagan saber a quienes estamos leyendo esos dictámenes”, dijo.

El estudio propone un decálogo que sintetiza esta hoja de ruta. Incluye la responsabilidad humana indelegable; la prohibición absoluta de cargar información sensible en sistemas de IA; el registro obligatorio y etiquetado institucional de documentos; además de la alfabetización en IA para legisladores y equipos; la evaluación de riesgos, las auditorías internas periódicas y la actualización normativa continua con coordinación interparlamentaria.

Cuando el lenguaje que articula la representación política se apoya en infraestructuras privadas y sistemas estadísticos, la discusión se concentra en los controles, los registros obligatorios y los mecanismos de responsabilidad que deben acompañar el uso de esa tecnología.

tracking reference image
Suscríbete