miércoles, 25 de febrero de 2026
Por Julio César Castrejón, Country Manager de Nutanix México
Recientemente Gartner pronosticó que el gasto mundial en infraestructura de nube soberana alcanzará los 80,000 millones de dólares en 2026, lo que constituye la señal más clara hasta la fecha de que el mercado de la nube está entrando en una fase más compleja para los líderes tecnológicos. El crecimiento se ve impulsado no solo por la demanda, sino también por las preocupaciones en torno al control, la resiliencia y el riesgo. Para los CIO y CTO, esto desplaza la planificación de la nube más allá de la optimización hacia decisiones más complejas sobre costes, capacidad y ubicación.
Los resultados de proveedores como AWS muestran que la demanda de nube pública se mantiene fuerte, y esto solo aumentará con el interés en la IA. La capacidad se expande, los servicios se multiplican y la inversión sigue siendo intensa. Sin embargo, para los líderes en tecnología empresarial, este crecimiento no elimina la necesidad de hacer concesiones. A medida que las cargas de trabajo impulsadas por IA se vuelven más intensivas en memoria y computación, las suposiciones sobre capacidad elástica y economía predecible son cada vez más difíciles de sostener, especialmente fuera de las plataformas de hiperescala, donde la exposición a la volatilidad de costos y los retrasos en el aprovisionamiento es más inmediata.
Esa presión se debe a la gran velocidad con la que la demanda de IA está pasando de la experimentación a la producción. Según un análisis Omdia, el gasto global en infraestructura en la nube alcanzó los 102,600 millones de dólares en el tercer trimestre de 2025, un 25 % más interanual, gracias a que las empresas escalaron las cargas de trabajo de IA en sus sistemas centrales. Al mismo tiempo, una Investigación de Deloitte destaca que la IA ya no se limita a aplicaciones individuales, sino que se está convirtiendo en una capa fundamental de la pila tecnológica empresarial. Este cambio incrementa drásticamente la demanda de cargas de trabajo con uso intensivo de memoria y computación, modificando las suposiciones que los CIO pueden hacer sobre costo, escala y disponibilidad.
A medida que los precios se vuelven más volátiles y el aprovisionamiento menos predecible, los CIO se enfrentan a fricciones en programas diseñados para simplificar las cosas. Los proyectos se retrasan, los presupuestos se revisan y, en algunos casos, la infraestructura heredada se mantiene en funcionamiento más tiempo del previsto porque las alternativas no están disponibles o ya no son económicamente viables. El problema no es simplemente un mayor gasto, sino una brecha cada vez mayor entre la ambición tecnológica y lo que la infraestructura subyacente puede soportar de forma realista.
Durante gran parte de la última década, la estrategia de la nube solía asumir una migración constante hacia plataformas públicas. A medida que las cargas de trabajo impulsadas por IA imponen demandas sostenidas de memoria y recursos computacionales, esta suposición se vuelve cada vez más difícil de mantener. Los CIO deben distinguir cada vez más entre las cargas de trabajo que realmente se benefician de la elasticidad a hiperescala, aquellas que requieren un control más estricto sobre los costos o la localización de los datos, y aquellas que necesitan la flexibilidad para adaptarse a las condiciones cambiantes. En la práctica, esto está impulsando un enfoque más selectivo para la adopción de la nube, que equilibra la nube pública, la infraestructura privada y los modelos híbridos para gestionar los costos, el rendimiento y el riesgo.
En la práctica, esto significa que los CIO ya no pueden considerar la asignación de cargas de trabajo como una decisión arquitectónica puntual. Necesitan una visión clara de qué sistemas son realmente flexibles, cuáles son sensibles a los costos y cuáles son críticos para la misión. Esto requiere un análisis más detallado de los requisitos de memoria y computación, suposiciones más realistas sobre la volatilidad de precios y planes de contingencia para retrasos o escasez. También implica evitar diseños rígidos que encierran las cargas de trabajo en un único entorno. Las organizaciones que mejor se adaptan a esta situación son aquellas que incorporan la opcionalidad, la capacidad de reequilibrar las cargas de trabajo, aplazar la demanda no esencial y proteger los sistemas críticos cuando la capacidad se reduce o los costes se disparan.
Para muchas organizaciones, las arquitecturas híbridas se perfilan como la forma más pragmática de gestionar dicha complejidad. La nube pública sigue siendo la solución ideal para cargas de trabajo que se benefician de un escalado rápido, capacidad de ráfaga o acceso a servicios de IA gestionados. La infraestructura privada, por su parte, ofrece mayor previsibilidad en cuanto a costes, rendimiento y disponibilidad para sistemas con uso intensivo de memoria o críticos para el negocio. Los modelos híbridos permiten a los CIO combinar estas fortalezas, ubicando las cargas de trabajo donde resulten más convenientes y conservando la capacidad de adaptarse a las condiciones cambiantes. Si se implementa correctamente, se trata de crear un modelo operativo coherente que alinee las opciones de infraestructura con las prioridades del negocio, en lugar de concentrarlo todo en una única plataforma.
Por supuesto, la nube híbrida por sí sola no es la solución definitiva. Los proyectos de nube privada están expuestos a muchas de las mismas presiones que configuran el mercado en general, en particular en cuanto a disponibilidad de memoria, plazos de entrega y costos. Las limitaciones de hardware no desaparecen simplemente porque las cargas de trabajo se trasladen fuera de las plataformas de hiperescala. La diferencia radica en que los modelos híbridos ofrecen a las organizaciones un mayor control sobre la gestión de dichas limitaciones. Al distribuir la demanda, secuenciar las implementaciones y mantener la capacidad de adaptar las cargas de trabajo a medida que cambian las condiciones, los CIO obtienen un margen de maniobra que una estrategia de plataforma única rara vez permite. El objetivo es evitar que esta limitación se convierta en un punto único de fallo.
Para los CIO, esto hace que la estrategia de la nube sea inseparable de la gestión de riesgos. Las decisiones sobre dónde se ejecutan las cargas de trabajo afectan cada vez más la exposición financiera, la resiliencia operativa y el cumplimiento normativo, no sólo las métricas de rendimiento. Como resultado, la planificación de la nube se está moviendo, o debería moverse más cerca, al centro de la gobernanza empresarial, lo que exige una mayor coordinación entre los líderes tecnológicos, los equipos financieros y las juntas directivas.
De cara al futuro, la adopción de la nube está entrando en una nueva fase. La IA seguirá impulsando la demanda, mientras que es probable que persistan las limitaciones en materia de memoria, computación, energía y cadenas de suministro. En este contexto, la estrategia en la nube se convierte en algo que requiere una reevaluación regular en lugar de una revisión periódica. Los CIO y CTO más eficaces serán aquellos que planifiquen teniendo en cuenta la incertidumbre, prueben las suposiciones con anticipación y mantengan la capacidad de adaptarse a los cambios de las condiciones. La nube se ha convertido en un elemento permanente de las organizaciones modernas. Lo que está cambiando es el nivel de atención y gobernanza que se requiere ahora para impulsar el crecimiento sin exponer al negocio a riesgos innecesarios.


