Buscar
Tecnología

Lectura 6:00 min

La inteligencia artificial está revirtiendo el abaratamiento de los productos de cómputo

La demanda de IA duplicó el costo de memorias clave como DRAM y NAND, rompió la caída histórica de precios y dejó inventarios en mínimos con producción comprometida hasta 2026.

Austin, Texas. Durante más de siete décadas, el precio de los componentes digitales siguió una trayectoria descendente. Memorias, discos de almacenamiento, procesadores, todo se abarató, año tras año, con una regularidad que los economistas asociaron a la llamada Ley de Moore. Esa tendencia acaba de quebrarse.

A Drew Schulke, vicepresidente de Gestión de Producto en almacenamiento primario de Dell Technologies, le preocupa algo inmediato, los componentes que hacen posible los sistemas digitales cuestan el doble que hace un año, no hay señales claras de que vayan a bajar y la culpable directa es la inteligencia artificial (IA).

Samsung, SK Hynix y Micron fabrican prácticamente toda la memoria del mundo: DRAM para servidores y computadoras, NAND para unidades de estado sólido. Son los mismos tres fabricantes para ambos productos.

De acuerdo con Schulke, cuando la demanda de IA presiona la producción de uno de estos componentes, arrastra al otro y no hay forma de aislar el efecto.

SK Hynix ya confirmó que toda su producción de DRAM, NAND y memoria de alto ancho de banda está vendida hasta finales de 2026, en gran parte a Nvidia para sus aceleradores de IA. La iniciativa Stargate de OpenAI, anunciada en octubre de 2025, prevé consumir el 40% de la producción global de DRAM, unas 900,000 obleas por mes. Lo que queda para el resto del mercado se disputa en condiciones de escasez histórica.

El inventario global de DRAM se sitúa en apenas dos o tres semanas de reserva, y el de NAND en tres o cuatro semanas. Ambos están en mínimos históricos.

Schulke describió lo que eso significa para las empresas que compraban componentes en el mercado abierto, lo que en la industria se llama mercado spot, en lugar de asegurar suministro mediante contratos a largo plazo.

En épocas de abundancia, comprar en el spot tiene sentido. Los precios son bajos y no hay necesidad de comprometerse. Cuando el suministro se contrae, ese mismo mercado se encarece por encima de lo que pagan quienes tienen contratos firmados.

Dell, dijo Schulke, lleva desde 1999 priorizando la continuidad del suministro sobre el precio más bajo. Esa decisión, que en tiempos normales parece conservadora, resulta ser la única cobertura efectiva cuando el mercado se rompe.

Escasez rompe tendencia de décadas

Dan Stanzione, director ejecutivo del Texas Advanced Computing Center de la Universidad de Texas en Austin, ofrece el marco histórico que sitúa esta ruptura en la tendencia de abaratamiento de los productos de electrónica de cómputo.

Desde 1947, el precio del almacenamiento digital cayó de forma sostenida. Año tras año, la Ley de Moore funcionó como una promesa implícita de la industria, más potencia, menos costo. Esa curva se quebró alrededor de 2023.

A diferencia del desabastecimiento global de chips de 2020 a 2023, que tuvo su origen en disrupciones de la cadena de suministro durante la pandemia, la escasez actual es consecuencia de una reasignación estructural de la capacidad de fabricación hacia productos de alto margen para la infraestructura de inteligencia artificial, lo que genera escasez en los mercados de consumo y empresariales convencionales.

IA cambia qué datos se conservan

Hay otra transformación en curso que Schulke describió y que pasa desapercibida en los análisis de mercado, la inteligencia artificial está cambiando qué datos vale la pena guardar. Durante décadas, las empresas descartaban grandes volúmenes de información por considerarla sin valor comercial: registros de operaciones antiguas, logs de sistemas, datos de sensores sin análisis. La IA convierte ese material en materia prima potencialmente útil. El resultado es una presión adicional sobre el almacenamiento que no es solo cuantitativa, sino que cambia la lógica de qué se conserva y qué se tira.

Schulke lo resumió con ironía: a él le gusta cuando las empresas almacenan datos y no los borran nunca.

En 2024, la mayor parte de los datos empresariales ya reside en almacenamiento de objetos, y los líderes del sector esperan que esa tendencia continúe. El crecimiento de la IA y los data lakehouses orientados a inteligencia artificial acelerarán aún más este fenómeno en los próximos años.

Schulke confirmó esa dirección desde la perspectiva del fabricante. En los últimos cinco años, el almacenamiento de archivos y de objetos creció significativamente más que el almacenamiento de bloques. La IA necesita los primeros dos para entrenamiento e inferencia. El tercero, asociado a bases de datos relacionales, queda rezagado en términos de crecimiento relativo.

La paradoja más llamativa que emerge de ambas conversaciones es esta: la misma tecnología que encarece los componentes también está siendo usada para diseñarlos y fabricarlos más rápido.

Schulke describió cómo las herramientas de desarrollo asistido por IA transformaron el ciclo de software de Dell. Hace dos años, esas herramientas generaban fragmentos de código simples para asistir a los programadores. Hoy pueden tomar una especificación funcional compleja, desarrollar el producto de extremo a extremo y ejecutar las pruebas. El resultado es que Dell define funcionalidades más ambiciosas desde el primer lanzamiento, algo que antes requería varios ciclos de desarrollo. El 85% de los ingenieros de su área trabaja en software, la IA los hace más rápidos.

Costos y escala

Stanzione plantea la pregunta que nadie en el sector quiere responder con precisión: ¿cuánto tiene que crecer el negocio de la inteligencia artificial para sostener la infraestructura que ya existe?

Actualmente hay unos 70 gigavatios de centros de datos de IA instalados globalmente. Solo la electricidad necesaria para operarlos ronda los 60,000 millones de dólares anuales, incluso a los precios relativamente bajos de Texas. Eso sin contar la depreciación de los servidores, el costo financiero de la deuda ni el capital humano.

OpenAI planea invertir 600,000 millones de dólares en centros de datos antes de 2030, una cifra difícil de justificar con ingresos anuales de apenas 20,000 millones y pérdidas operativas en crecimiento. Incluso Google y Meta han recurrido al endeudamiento para cumplir sus compromisos de inversión.

En opinión de Stanzione, el sector necesita alcanzar entre 3 y 4 billones de dólares en ingresos en los próximos tres o cuatro años. Si no llega a esa escala, habrá un ajuste.

Los compradores que dependen de DRAM y NAND de uso general deben esperar una volatilidad de precios sostenida hasta mediados de 2026 e incluso hasta 2027, con alivio limitado salvo que los fabricantes expandan significativamente su capacidad o la demanda se modere. De acuerdo con Shulke, los problemas de suministro de memoria no tardan menos de 18 a 24 meses en resolverse.

Para quienes administran los presupuestos de tecnología en empresas que no son OpenAI ni Google, eso se traduce en que el hardware que necesitan para operar hoy cuesta más, tardará más en abaratarse y depende de decisiones tomadas en las salas de máquinas de la inteligencia artificial.

rodrigo.riquelme@eleconomista.mx

Reportero de Tecnología

Últimas noticias

Noticias Recomendadas