Lectura 6:00 min
La IA acelera los ciberataques y presiona la seguridad de la infraestructura crítica en México
El Informe Internacional sobre la Seguridad de la IA 2026 documenta el uso activo de IA en ciberataques y una aceleración en el hallazgo de vulnerabilidades y generación de malware.

Ilustración: Nayelly Tenorio
La inteligencia artificial ya sirve como una herramienta para realizar ciberataques. El Informe Internacional Sobre la Seguridad de la IA 2026 describe que los sistemas de inteligencia artificial (IA) de uso general pueden ejecutar o asistir tareas típicas de un ciberataque y que existe evidencia sólida de uso activo de IA en operaciones cibernéticas por grupos criminales y actores patrocinados por Estados.
El informe, elaborado por un panel internacional de expertos en el marco del proceso iniciado tras la Cumbre de Seguridad de IA de Bletchley Park, advierte que sigue sin poder establecerse con claridad si la IA ya incrementó la magnitud y gravedad generales de los ciberataques, por la dificultad de demostrar una causalidad.
Te puede interesar
En infraestructura crítica, esa limitación convive con una presión operativa inmediata. Una mejora sostenida en la velocidad, la escala y la automatización reduce las ventanas de respuesta y eleva la carga defensiva en sistemas que prestan servicios esenciales.
La empresa israelí Gambit Security afirmó que un atacante habría usado modelos como Claude para acelerar las tareas de intrusión en los sistemas del gobierno mexicano. El SAT respondió que está alineado con marcos como ISO IEC 27000, ISO 22301 e ISO 31000, y que tras revisar bitácoras no identificó accesos ilegítimos ni comportamientos anómalos vinculados con la presunta filtración.
El informe advierte que la evidencia sobre la efectividad en el mundo real de prácticas de gestión de riesgos es limitada y que la falta de reportes de incidentes y de monitoreo dificulta evaluar tanto la efectividad de esas prácticas como la consistencia con la que se aplican. En un país con una alta exposición a servicios digitales y cadenas de suministro, la ausencia de información acumulable impide separar fallas estructurales de episodios aislados.
Te puede interesar
IA incrementa capacidades de ataque
El informe ubica el avance más visible en tareas concretas, como el descubrimiento de vulnerabilidades y la escritura de código malicioso, con desempeños altos en competencias de ciberseguridad. En una competencia, un agente de IA identificó 77% de vulnerabilidades en software real y quedó en el 5% superior entre más de 400 equipos mayoritariamente humanos.
El lapso entre encontrar una falla y explotarla puede acortarse. En infraestructura crítica, ese acortamiento amenaza procesos de parcheo que dependen del inventario de activos, pruebas, de la coordinación con proveedores y de ventanas de mantenimiento.
La automatización también avanza hacia operaciones más integradas. El informe registra que los sistemas de IA automatizan cada vez más elementos del ciberataque. Aún no se reportan ataques completamente autónomos de extremo a extremo, aunque se documentó al menos un incidente con capacidades semiautónomas y supervisión humana en puntos de decisión críticos.
El informe muestra, además, el caso reportado por un desarrollador donde un actor malicioso habría automatizado entre 80 y 90% del esfuerzo de una intrusión, dejando a una persona la toma de decisiones críticas.
En el corto plazo, el patrón dominante descrito es la aceleración de métodos ya conocidos, con contribuciones a aumentos en velocidad y escala. Ese cambio presiona la seguridad por volumen. Más intentos, más variaciones, más oportunidades de encontrar el eslabón débil.
Defensa con IA
El informe también describe un balance ataque-defensa dinámico. Herramientas que sirven para encontrar vulnerabilidades pueden emplearse para descubrirlas y parcharlas antes, y se mencionan anuncios de agentes de seguridad de IA orientados a identificar y corregir vulnerabilidades de forma proactiva.
El obstáculo aparece en el estándar de confiabilidad. La falta de métodos estándar de garantía de calidad para herramientas de IA dificulta su adopción por defensores en sectores críticos, donde la fiabilidad es esencial, mientras los atacantes no están sujetos a esa restricción. Una organización que opera energía, telecomunicaciones, pagos o servicios públicos no puede desplegar un agente que ejecute acciones sin pruebas y gobernanza. El error defensivo también produce daño.
A esa fricción se suma el contexto de capacidades empresariales en México. De acuerdo con un informe del Centro México Digital, solo 8% de las empresas con 10 o más empleados utiliza sistemas de IA, con una brecha por tamaño de empresa. Esa disparidad suele replicarse en ciberseguridad. La infraestructura crítica depende de cadenas de proveedores y contratistas, y esa heterogeneidad amplía la superficie de riesgo.
Te puede interesar
Resiliencia
El informe define la resiliencia social como la capacidad de sistemas sociales para resistir, absorber, recuperarse y adaptarse frente a perturbaciones y daños relacionados con la inteligencia artificial de uso general. Se trata de una defensa en profundidad, con múltiples intervenciones superpuestas para reducir la dependencia de una sola medida. En infraestructura crítica, esto implica continuidad operativa, redundancias, ejercicios y coordinación, además de controles técnicos.
El desempeño en pruebas previas al despliegue no predice de forma confiable la utilidad o el riesgo en condiciones reales. El riesgo en infraestructura crítica es desplegar herramientas defensivas con buen desempeño en laboratorio y fallar en integración con sistemas heredados, configuraciones específicas o dependencias de proveedor.
El marco de gestión de riesgos descrito en el informe incluye prácticas para identificar, evaluar y reducir la probabilidad y gravedad de riesgos asociados con sistemas de IA, con ejemplos como la modelización de amenazas, el red teaming, las auditorías e informes de incidentes.
Modelos y acceso
El informe añade una capa para la infraestructura crítica. Advierte que los modelos open source facilitan la investigación y la innovación, aunque sus salvaguardias son más fáciles de eliminar y el monitoreo de su uso es más difícil. En sectores críticos, ese punto empuja a decisiones de gobernanza sobre qué modelos integrar, con qué controles, y bajo qué obligaciones de auditoría y trazabilidad.
La presión sobre la infraestructura crítica crece cuando el atacante puede iterar más rápido y más barato y cuando una parte del ataque se automatiza sin necesidad de ampliar los equipos humanos. La defensa puede usar la IA para acelerar la detección y la corrección, aunque requiere estándares de calidad y gobernanza para no introducir nuevas fallas.
En un país donde la adopción empresarial de IA sigue siendo baja, el riesgo se reparte de forma desigual y convierte la ciberseguridad en continuidad económica y operativa, con impacto directo en servicios esenciales y en confianza.





