Buscar
Tecnología

Lectura 4:00 min

La mexicana Bleeding Edge acuerda con Hadron llevar microreactores a sus AI Factories

Bleeding Edge y Hadron firmaron una carta de intención para evaluar la instalación de microrreactores nucleares modulares de 10 megawatts como fuente energética para AI Factories en México y otros mercados.

main image

Hadron Energy.Foto EE: Especial

Rodrigo Riquelme

La empresa mexicana Bleeding Edge Technologies firmó una carta de intención con la estadounidense Hadron Energy para trazar una ruta de evaluación técnica y regulatoria orientada al posible despliegue de microrreactores nucleares modulares (MMR) de 10 megawatts en sus AI Factories en México, América Latina, Norteamérica y Europa.

El documento plantea el acuerdo como una respuesta anticipada a un problema que hoy condiciona la expansión de la inteligencia artificial a escala industrial. El acceso a energía confiable, continua y de alta densidad se perfila como el insumo crítico para sostener cargas de cómputo intensivas, especialmente cuando la infraestructura se diseña para operar con alta disponibilidad y baja tolerancia a fallas.

La carta de intención fija límites explícitos. El despliegue de la tecnología queda sujeto a la obtención de licencias y autorizaciones regulatorias tanto por parte de autoridades de Estados Unidos, país de origen, como de los organismos competentes en cada jurisdicción donde se proyecte operar. En términos prácticos, el acuerdo define una fase de trabajo enfocada en estudios de viabilidad, cumplimiento normativo y preparación de sitios para posibles despliegues iniciales.

Energía para la era de la inferencia

El comunicado vincula esta apuesta con un cambio operativo dentro de la inteligencia artificial (IA). Conforme la industria transiciona del entrenamiento de modelos de lenguaje (LLM) hacia la inferencia en tiempo real, la tolerancia a interrupciones eléctricas se reduce a cero, según el texto. En ese escenario, Hadron ofrece unidades MMR con capacidad de generación de hasta 10 MW de potencia eléctrica por módulo, orientadas a suministrar energía limpia y estable a entornos de misión crítica como las AI Factories.

image

Hadron Energy.Foto EE: Especial

Un LLM (large language model) es un modelo de inteligencia artificial entrenado con grandes volúmenes de texto para predecir la siguiente palabra y, con ello, generar respuestas, resumir, traducir o razonar sobre instrucciones. Entrenarlo significa ajustar sus parámetros con cómputo intensivo para que aprenda esos patrones. La inferencia es el uso cotidiano del modelo ya entrenado, cuando recibe una pregunta y calcula la respuesta en ese momento. Cuando esa inferencia es en tiempo real, el sistema debe contestar de forma continua a usuarios o procesos conectados; una intermitencia eléctrica corta la respuesta en curso, tumba servicios y obliga a reiniciar componentes, por eso se busca energía estable para operación crítica.

En un comunicado, Natan Rosengaus, director general de Bleeding Edge, enmarca el acuerdo como una apuesta por la viabilidad futura de la infraestructura digital. Explica que las AI Factories modernas demandan densidad de potencia y estabilidad que exige ir más allá de fuentes convencionales, y coloca el objetivo en construir infraestructura soberana y resiliente para sostener cargas críticas de inferencia.

Samuel Gibson, director ejecutivo de Hadron Energy, añade que los microreactores se diseñaron para continuidad operativa y que el trabajo con reguladores internacionales forma parte de la ruta para acelerar la adopción de energía nuclear segura y descentralizada aplicada a infraestructura digital.

Cuello de botella eléctrico empuja generación en sitio

El contexto que rodea esta discusión aparece en el debate de centros de datos en México. La Asociación de Centros de Datos en México (MEXDC), que agremia a las principales empresas que administran esta infraestructura en el país, ha descrito a la energía como el obstáculo más delicado en una expansión impulsada por digitalización, nube e inteligencia artificial, y ha advertido presiones sobre transmisión y distribución. Esa presión crece conforme se consolida la transición hacia sitios de alta densidad preparados para IA, donde el enfriamiento líquido y sistemas avanzados ganan terreno y la ecuación de localización incorpora energía y agua como variables críticas.

La propia arquitectura de un centro de datos para IA implica rediseños de energía, enfriamiento y redes. Bleeding Edgeha descrito que el salto frente a un data center tradicional se mide en órdenes de magnitud, con demandas que pueden multiplicarse de forma sustancial y con límites claros para adaptar instalaciones existentes.

Para el mercado mexicano, esta conversación se cruza con proyecciones de mayor peso de cargas de IA en nueva infraestructura. Un estudio realizado por Ciena y Censuswide muestra que 43% de las nuevas instalaciones de centros de datos en el país tendrá que estar destinado a soportar cargas de trabajo de inteligencia artificial.

rodrigo.riquelme@eleconomista.mx

Rodrigo Riquelme

Reportero de Tecnología

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros Newslettersregístrate aquí
tracking reference image

Últimas noticias

Noticias Recomendadas

Suscríbete