Entrevistas

[Entrevista] Directivos de Vertiv: «La continuidad de la infraestructura crítica es innegociable, y en la era de la inteligencia artificial requiere repensar cómo diseñamos la energía y el enfriamiento»

Ejecutivos de Vertiv sostienen que la era de la IA obliga a rediseñar energía y enfriamiento para garantizar infraestructura crítica.

Compartir

Con motivo de la reinauguración de sus oficinas en El Bosque Norte 500, Vitacura, Vertiv citó a medios especializados para compartir una visión técnica integral sobre la evolución de la infraestructura crítica en Chile y Latinoamérica.

Durante la conversación, los directivos de la compañía detallaron las transformaciones tecnológicas que están experimentando los data centers, especialmente en el contexto del crecimiento exponencial de las aplicaciones de inteligencia artificial.

Dentro del tour por la oficina, lo más relevante fue conocer el SmartCabinet de Vertiv rodeado por una ventana curva que lo presenta como el punto focal de la oficina.

Este rack es un microcentro de datos todo en uno, diseñado especialmente para ofrecer una infraestructura completa de TI en lugares hostiles o exigentes, donde el polvo, la humedad y las fluctuaciones de temperatura pueden afectar el rendimiento y la vida útil del equipo informático.

Este rack cerrado cuenta con certificación IP54, y dispone de refrigeración, alimentación eléctrica, sensores ambientales y seguridad física en un solo rack, optimizando el espacio disponible y asegurando protección ambiental.

10 puntos clave de la conversación

Crecimiento del consumo energético: Los racks pasaron de 6–10 kW (2015–2018) a gabinetes de 50–100 kW en 2025, un aumento de 10 veces impulsado por chips y GPUs de inteligencia artificial.

🔋 Demanda de la IA: Una consulta en ChatGPT usa 10 veces más que una búsqueda en Google, generar una imagen 50 veces más, y un video de 30 segundos hasta 10.000 veces más.

💧 Agua como medio de enfriamiento: El agua es el elemento físico más eficaz para disipar el calor masivo de los procesadores, lo que obliga a diseñar 3–4 arquitecturas de enfriamiento líquido para manejar las nuevas densidades térmicas.

📊 Eficiencia energética (PUE): Los datacenters buscan un PUE cercano a 1.0, indicador que refleja la relación óptima entre energía de entrada y energía efectiva de salida, establecido como estándar global de eficiencia.

♻️ Liquid Cooling y sostenibilidad hídrica: Los sistemas de enfriamiento líquido no consumen agua, la recirculan en circuitos cerrados con compuestos especializados, reduciendo pérdidas térmicas.

🌎 Aceleración regional en IA: Se observa un alza del 550% en empresas de IA desde 2018. Lideran México (965%), Brasil (487%) y Chile con 73,07 puntos en el Índice Latinoamericano de IA.

🔌 Arquitectura eléctrica 800 VDC: Hacia 2026 se desplegarán arquitecturas de 800 VDC compatibles con plataformas NVIDIA Kyber y Rubin Ultra, soportando hasta 142 kW por rack, reduciendo cobre y pérdidas térmicas.

⚙️ Integración con sistemas de almacenamiento: Los BESS combinan UPS, baterías, hidrógeno y fotovoltaica en microgrids, optimizando el peak shaving y reduciendo encendidos de generadores en favor de la sostenibilidad.

🏫 Formación de talento en datacenters: Vertiv impulsa academias de 250 m² con equipos hands-on, sumando solo 8–9 centros globales.

Periodistas y ejecutivos de Vertiv presentes en el cita en el recorrido por las nuevas oficinas | Imagen Créditos: Pisapapeles.

El concepto de cargas críticas en la era digital según Vertiv

En un mundo cada vez más dependiente de la tecnología, el concepto de cargas críticas adquiere una relevancia fundamental para el funcionamiento de la sociedad contemporánea. Estas cargas representan procesos y sistemas que no pueden interrumpirse sin generar consecuencias significativas. Los ejecutivos de Vertiv lo explicaron con claridad:

“Una carga crítica es un proceso o sistema que no puede detenerse, porque la humanidad depende cada día más de la tecnología. El mundo de las comunicaciones, los datos y los servicios que espero que funcionen cuando los necesito son, en sí mismos, aplicaciones críticas.

La adopción global de Internet alcanzó los 5,65 mil millones de usuarios en julio de 2025, lo que equivale al 68,7% de la población mundial. El crecimiento sostenido durante la última década refleja la creciente dependencia digital de sociedades, empresas y servicios críticos | Créditos: DataReportal / We Are Social / Meltwater, 2025.

La definición entregada por la compañía se extiende más allá del ámbito tecnológico y alcanza también a procesos económicos de gran importancia:

“Otra aplicación crítica, desde la perspectiva técnica, corresponde a un proceso productivo que genera negocio y recursos. Si ese proceso se detiene, se producen pérdidas económicas.

En 2022, el 60% de las interrupciones tecnológicas costó más de USD 100 000, y el 15% superó el millón, según el Uptime Institute. E

Los ejecutivos subrayaron que los servicios esenciales, como la salud, forman parte de este concepto de continuidad operativa, de hecho en EE. UU., más de 750 hospitales sufrieron interrupciones tras una falla masiva de software en 2024, afectando procesos críticos como registros médicos y monitoreo, según data de Wired.

“La salud también es una carga crítica. Esperamos que, cuando necesitamos un hospital, esté operativo al cien por ciento. Eso requiere infraestructura de datos, de comunicación y de procesos productivos críticos, a los cuales damos soporte.

Para abordar estas necesidades, los portavoces de Vertiv precisaron que las soluciones deben asegurar la continuidad en todo momento:

“[…] Lo hacemos proporcionando soporte y protección eléctrica mediante equipos conectados que aseguran estas funciones.

Ese soporte no se limita únicamente al suministro de energía; se trata de un ecosistema más amplio de tecnologías interconectadas que acompañan a la infraestructura crítica:

“También incorporamos equipos que forman parte de un entorno técnico integral: aire acondicionado, distribución eléctrica, monitoreo y otros sistemas complementarios.

La transformación digital acelerada en Latinoamérica

La velocidad de adopción tecnológica en Latinoamérica ha experimentado una transformación notable en la última década, reduciendo significativamente la brecha con los mercados más desarrollados. Los ejecutivos de Vertiv recordaron cómo era este escenario en el pasado:

“Entender que Latinoamérica es un territorio en donde antes, cuando estábamos hablando hace 10 años, Latinoamericanos desarrollaban o se veían tecnologías en Latinoamérica con ciclos muy diferentes a cómo se veían en Estados Unidos o en Europa o en Asia. Diez años después, que salió algo de Estados Unidos, se veía en Latinoamérica”.

Hoy esa brecha se ha reducido de manera dramática, lo que ha convertido a la región en un mercado competitivo a nivel global.

“Esos ciclos hoy en día son mucho más cortos. Algo que está saliendo como tecnología de punta. En Estados Unidos, al mes, en cuestión de meses, está Latinoamérica. Entonces, Latinoamérica ya no se queda atrás”.

Métricas de Crecimiento de IA por País (2018-2024), según data de Bloomerang:

  • Brasil: 124 → 728 empresas de IA (crecimiento del 487%)
  • México: 34 → 362 empresas de IA (crecimiento del 965%)
  • Chile: 28 → 160 empresas de IA (crecimiento del 471%)
  • Colombia: 13 → 100 empresas de IA (crecimiento del 669%)
  • Promedio regional: 550% de crecimiento desde 2018.

En un contexto regional, la infraestructura digital regional presenta métricas específicas que demuestran la madurez tecnológica alcanzada en diferentes mercados latinoamericanos.

En este proceso, la inteligencia artificial se ha posicionado como motor central de la transformación, impulsada por los desarrollos de la industria de semiconductores. Los portavoces de Vertiv destacaron el papel de un actor clave:

“No es ningún secreto que quien está impulsando toda esa transformación, toda esa tecnología relacionada con inteligencia artificial, aprendizaje, machine learning, cargas de trabajo, fábricas de AI, como estamos mencionando ahora, es NVIDIA, que es el principal productor de soluciones, de las plataformas que facilitan el desarrollo de estas tecnologías, aplicaciones de inteligencia artificial”.

Las alianza entre Vertiv y NVIDIA

Vertiv anunció la arquitectura 800 VDC, prevista para 2026, que reducirá uso de cobre, corriente y pérdidas térmicas en centros de datos, y que se integrará con las plataformas NVIDIA Kyber y Rubin Ultra.

Además, la firma participa en el Proyecto Colosseum junto a NVIDIA e iGenius para desplegar en Italia una de las supercomputadoras de IA más grandes del mundo, con soluciones que soportan hasta 142 kW por rack.

Render 3D de una infraestructura de alta densidad diseñada para la plataforma NVIDIA GB200 y escalable hacia GB300. La solución soporta una carga de 1,4 MW distribuidos en 20 racks optimizados para DGX, con capacidad para cargas de próxima generación. Su diseño modular integra Vertiv SmartRun, un sistema prefabricado superior que centraliza enfriamiento, distribución de energía de extremo a extremo y gestión de cableado. | Imagen Créditos: Vertiv

La importancia de NVIDIA no solo reside en el software, sino también en los componentes físicos que permiten alcanzar un desempeño superior.

“Junto con la parte técnica, que son los GPUs, que son el corazón de toda la capacidad de cómputo de alto desempeño, que viene revolucionando todo esto”.

Este escenario ha dado paso a alianzas estratégicas entre fabricantes de tecnología e infraestructura. Los especialistas de Vertiv explicaron el alcance de esta colaboración:

“Vertiv tiene una colaboración a nivel mundial muy estrecha con NVIDIA, que hace que nosotros tengamos de primera mano esos avances tecnológicos, y nosotros estamos acompañando desde nuestra área de experiencia, toda la parte de enfriamiento, toda la parte de energía”.

No se trata únicamente de un acuerdo comercial, sino de una relación estratégica que potencia las posibilidades tecnológicas en el mercado.

“[…] Hace posible que esos desarrollos tecnológicos impulsados, no solamente por NVIDIA, sino por todos los fabricantes de chips, estén realmente en la condición para poder lanzarse al mercado, y ser soportados de una manera óptima en términos de calidad de servicio”.

Otras cifras que respaldan la transformación que sugiere Vertiv en durante la conversación

La narrativa se sostiene también en datos financieros y de mercado. En el segundo trimestre de 2025, Vertiv reportó ingresos por $2,640 millones, lo que representa un crecimiento del 35% respecto al mismo período de 2024. La ganancia neta alcanzó $324,2 millones, un incremento del 82%, con un margen de beneficio que pasó del 9,1% al 12%. Estos resultados proyectan ingresos anuales de hasta $10,075 millones, con un crecimiento orgánico del 23–25%.

El impulso regional se ha consolidado en iniciativas colaborativas como Latam-GPT, lanzado en junio de 2025 con una inversión inicial de $550.000 y el soporte de países como Chile, México, Brasil y Perú. El modelo, con 50 mil millones de parámetros y 8 TB de datos, es comparable a ChatGPT-3.5 y busca posicionar a América Latina en el mapa global de la inteligencia artificial (según datos de la BBC).

La revolución energética en los data centers desde la perspectiva de Vertiv

El aumento en el consumo energético de los data centers se ha convertido en uno de los desafíos técnicos más relevantes de la década. Los voceros de Vertiv describieron cómo ha cambiado el escenario en pocos años:

“Nosotros convivimos con una industria que estaba acostumbrada a trabajar con un rack de servidores, consumiendo algo como de 6 a 10 kilowatts por columna, por gabinete. Esto hasta 2015, hasta 2018. Estábamos en esta referencia de potencia de consumir”.

Algunos de estos datos pueden ser respaldados por NVIDIA o McKinsey.

El contraste con la situación actual es evidente y revela un incremento exponencial que ha obligado a redefinir los parámetros de diseño de infraestructura.

“En 2025, los gabinetes de servidores que integran GPUs de última generación pueden alcanzar consumos de entre 50 y 100 kilowatts, es decir, diez veces más que el promedio registrado en 2018”.

Para comprender la magnitud del fenómeno, los directivos explicaron cómo varía el consumo de energía según el tipo de aplicación de inteligencia artificial, con comparaciones que permiten dimensionar el impacto.

“Comparativamente, una consulta en un modelo de IA de texto como ChatGPT puede consumir hasta diez veces más energía que una búsqueda en Google. Si se trata de generar una imagen, el consumo puede aumentar a cincuenta veces respecto de una búsqueda en Google”.

La progresión se vuelve aún más intensa en el caso de contenidos multimedia, donde la demanda energética alcanza niveles extraordinarios.

“Si pides un video de 30 segundos, consume 10.000 veces la energía que genera una búsqueda”.

Fuentes en cuanto al consumo energético: MIT technology, Synthesia e Ifri

Chile hacia el HUB tecnológico de la región en cifras

En el contexto nacional, la capacidad operativa de data centers en Chile se ha quintuplicado entre 2013 y 2023, pasando de 35 MW a 198 MW, reflejando un crecimiento exponencial de infraestructura energética, según cifras de DCD.

Por su parte, InvestChile y Infraestructura Pública señalan que para finales de este año, se prevé un aumento de 100 MW de nueva capacidad eléctrica, junto a 14 nuevos centros, a los 37 ya existentes, principalmente en Santiago y Huechuraba.

En materia de inversiones se planea llegar a USD 1.000 millones en inversiones hacia 2030, y el mercado alcanzará USD 1.24 mil millones en ese mismo año, al ritmo de un crecimiento anual compuesto de aproximadamente 8%, según cifras de Yahoo Finance.

Evolución del mercado de data centers en Chile, que pasará de USD 773 millones en 2024 a USD 1.240 millones en 2030, con un crecimiento anual compuesto de 8,3%. Fuente: Yahoo Finance | Vía: Research and Markets.

Y desde luego no podemos olvidar los anuncios de las grandes firmas de Data Centers en Chile:

  • Microsoft de su primera región de data centers (“Chile Central”), contara con tres ubicaciones con una inversión cercana a 3300 millones USD.
  • En mayo de este año, AWS (de Amazon) detalló una inversión de US$4 mil millones en Chile para lanzar región de infraestructura de nube
  • A finales de 2023, Oracle estrenó su segundo centro de datos en el país.

El desafío del flujo térmico en data centers de alta densidad

El flujo térmico corresponde a la cantidad de calor que atraviesa una superficie por unidad de área y tiempo, y es determinante para diseñar sistemas de enfriamiento. A mayor potencia concentrada en un chip, mayor es el flujo que debe disiparse.

En los datacenters actuales, la alta densidad de procesamiento multiplica este fenómeno: varios GPUs en espacios reducidos generan tanto calor que el enfriamiento por aire resulta insuficiente, haciendo necesario recurrir al enfriamiento líquido.

Los especialistas de Vertiv destacaron el principio físico que explica por qué es necesario recurrir a otro método:

“Para tratar tanto consumo, el elemento físico que mejor combate este calor es el agua. No hay otro elemento físico que lo haga de forma eficaz y eficiente”.

DCD, destaca que el crecimiento de la IA, junto a las GPUs de alta potencia, han llevado las cargas de trabajo a densidades inéditas. Mientras antes un rack de 30 kW se consideraba de alta densidad, hoy los hiperscaladores ya diseñan infraestructuras que superan los 100 kW, volviendo insuficiente la refrigeración por aire y obligando a la adopción de soluciones líquidas.

  • La irrupción de la inteligencia artificial ha multiplicado el consumo energético de los centros de datos.
  • Este aumento representa un salto de hasta diez veces en el consumo eléctrico y genera una densidad térmica crítica.
  • Los sistemas de enfriamiento por aire ya no logran disipar el calor de chips que alcanzan hasta 700 W cada uno.
  • La refrigeración líquida deja de ser experimental y se vuelve necesidad estructural en centros de datos.
  • Los hyperscalers aplican tecnologías como directo al chip, inmersión e híbridos aire-líquido.
  • A partir de 50 kW por rack, el aire es insuficiente: se requieren agua y sistemas mecánicos eficientes.
  • El objetivo es mantener la estabilidad térmica y la continuidad operativa frente a cargas de IA y HPC.

Soluciones de enfriamiento líquido de Vertiv

Este hecho ha llevado a la compañía a reorientar su estrategia hacia tecnologías de enfriamiento líquido, desarrollando distintas arquitecturas para responder a la alta densidad térmica de los chips actuales:

“Por esta razón, Vertiv está con todo en esta dirección de tratar estos chips, la densidad térmica, con soluciones de líquidos. Hay tres o cuatro tipos de arquitectura para manejar internamente los layouts y los diseños. Estamos con todo en esta dirección”.

Para dimensionar la magnitud del desafío, los ejecutivos recurrieron a una analogía con la industria automotriz:

“Llévalo a esa necesidad de poder tener el equipo, el servidor, el equipo de procesamiento para que te entregue la respuesta, y que concentra tanto, de una forma tan pequeña, que te genera el calor que te genera un motor de un auto”.

Vista en corte del Vertiv™ SmartMod™ HDX DCL, un centro de datos modular de alta densidad que integra racks de TI, sistema de enfriamiento con chillers, UPS, bancos de baterías, gestión de cableado y sistema contra incendios, capaz de soportar cargas de hasta 50 kW por rack. | Créditos: Vertiv

Los ejecutivos de Vertiv comparan lo que ocurre en los Data Centers, con lo que sucede con un motor de auto.

“El motor de un auto, para poder enfriarlo, no requiere un ventilador: está circulando agua, porque no existe, otro método físico para poder retirarlo; hasta que la física logre nuevos avances”.

No obstante, el uso de agua en datacenters plantea inquietudes ambientales. Frente a ellas, los especialistas ofrecieron una aclaración técnica:

“Es importante entender que hay dos tipos de data centers. Hay data centers que utilizan agua para poder funcionar constantemente y otros que no la utilizan, pero la recirculan. Utilizan agua, pero no es un proceso de consumo de agua”.

La diferencia entre consumo y recirculación es clave para comprender el impacto hídrico de estas tecnologías.

“La mayoría de los data centers hoy utilizan circuitos cerrados; el consumo de agua no es mucho. No es algo que se va a tomar siempre. En el liquid cooling, aunque el agua es un elemento fundamental, lo que circula no es agua: es un compuesto que refrigera toda esta carga térmica que tienen los grandes GPUs. No es un consumo de agua que vaya a perderse, porque recircula en todo el sistema con una pérdida muy pequeña”.

Tendencia hacia circuitos cerrados de agua

Los circuitos de agua en los data centers son sistemas diseñados para gestionar eficientemente el calor generado por los equipos informáticos, especialmente en instalaciones que manejan cargas de alta densidad como aplicaciones de inteligencia artificial. La clave para evitar la pérdida de agua radica en el diseño del sistema de refrigeración empleado.

En estos sistemas, el agua circula en un ciclo completamente sellado, transportando el calor desde los equipos hasta intercambiadores o refrigeradores, donde se enfría para volver a circular. El consumo de agua es únicamente el necesario para rellenar la instalación durante la puesta en marcha. Si el funcionamiento es correcto y no se producen fugas, no existe consumo de agua durante la operación diaria.

¿Por qué los circuitos cerrados no pierden agua?

En un circuito cerrado, el agua o fluido refrigerante funciona como un sistema hermético. El líquido absorbe el calor de los componentes electrónicos y lo transfiere a un intercambiador de calor, donde se enfría nuevamente sin contacto con el ambiente exterior.

Esquema de Microsoft sobre la eficiencia en el uso del agua en centros de datos, que integra reutilización, recolección de agua de lluvia y sistemas de refrigeración optimizados para reducir la dependencia de recursos hídricos tradicionales. | Imagen Créditos: Microsoft

Arquitectura de procesadores y computación paralela

El procesamiento de datos en paralelo se sustenta en una arquitectura que comienza en los procesadores gráficos. Los portavoces de Vertiv recordaron el origen de esta tecnología y el rol pionero de Nvidia:

“El GPU es un acrónimo de Graphic Processor Unit, básicamente originado de las consolas de video. Ahí fue donde Nvidia fue el precursor de todo eso”.

La diferencia central de los GPUs radica en su capacidad para ejecutar cálculos en paralelo, lo que los hace especialmente adecuados para tareas de inteligencia artificial y cargas de trabajo intensivas. A diferencia de los chips tradicionales, que procesan operaciones de forma secuencial, los GPUs permiten realizar múltiples operaciones simultáneamente:

“¿Y por qué tiene esta capacidad y por qué ayuda hacia la transformación digital, hacia la Inteligencia Artificial? Porque la GPU, a diferencia de los chips tradicionales, pueden hacer procesos diferentes de cómputo en paralelo”.

NVIDIA resume en esta tabla la diferencia entre una GPU y una CPU

Este avance abrió la puerta a un ecosistema de competencia en el que otros fabricantes también desarrollan soluciones de alto desempeño. Los ejecutivos remarcaron que Nvidia no está sola en este campo, aunque se mantiene como líder del mercado:

“Ponemos la referencia como Nvidia, porque es el líder en el mercado, pero AMD e Intel, también tienen desarrollos de los GPUs”.

La colaboración de Vertiv se extiende a todos estos actores, con el fin de garantizar que sus sistemas de energía y enfriamiento acompañen la evolución tecnológica de la industria:

“Esa misma tecnología, que tienen Nvidia, Intel y AMD, nosotros la seguimos de cerca y contamos con esa información para poder desarrollar soluciones de enfriamiento y energía que sustenten de manera óptima los nuevos nodos de cómputo”.

Soluciones Integrales para Inteligencia Artificial

La creciente complejidad de las implementaciones de inteligencia artificial ha impulsado el desarrollo de plataformas integradas. Los portavoces de Vertiv destacaron que el enfoque no se limita a una innovación puntual, sino que responde a una estrategia de integración global:

“Es un concepto más que una tecnología. Es englobar todas las soluciones que nosotros tenemos y que podemos entregar de una manera integral hacia los clientes que demandan este tipo de soluciones de inteligencia artificial”.

Vertiv 360 es como esquematiza la firma sus soluciones optimizar la infraestructura de energía y refrigeración | Imagen créditos: Pisapapeles | Vía Vertiv.

Esta visión busca simplificar la adopción tecnológica mediante la convergencia de distintos componentes en un mismo marco operativo, ofreciendo a los clientes una solución cohesiva y lista para su despliegue:

“Toda la parte de potencia, la parte de monitoreo, incluso servicios, están integrados dentro de esa plataforma. Para poder entregar en una sola exhibición, cualquier aplicación que se requiera por parte de nuestros clientes, un portafolio completo de soluciones desde el lado de Vertiv 360”.

Vertiv 360AI es una solución integral de infraestructura para desplegar aplicaciones de IA que requieren altas densidades de potencia (hasta 115 kW por rack) y refrigeración especializada.

  • Problema: Las cargas de trabajo de IA requieren hasta 10 veces más potencia y refrigeración que los servidores tradicionales
  • Solución: Portafolio completo de energía, refrigeración líquida y servicios preintegrados
  • Beneficio: Reduce tiempo de despliegue hasta 50% vs. construcción tradicional
  • Escalas: Desde 1 rack (pruebas) hasta centros de datos modulares completos
  • Servicios: Cobertura global con 240+ centros de servicio para todo el ciclo de vida
  • Tecnologías clave: Refrigeración directa al chip, UPS de alta densidad, centros modulares prefabricados.

Data Centers modulares

La integración se proyecta también a la construcción de infraestructura, donde los data centers modulares se consolidan como una alternativa eficiente frente a los modelos tradicionales. Los especialistas explicaron las ventajas de este enfoque:

“La decisión de poder construir un datacenter tradicional a un datacenter modular va obviamente en ahorro de tiempo de entrega, de facilidad de poder hacer el comisionamiento y cada vez tiene más recepción la parte de hacer un datacenter de una manera modular”.

Un elemento clave en este modelo es la personalización, que permite diseñar instalaciones adaptadas a cada caso de uso. Este grado de flexibilidad otorga rapidez y precisión en la puesta en marcha:

“Muchos son trajes a la medida que, dependiendo del diseño y dependiendo de la aplicación, se hace ese prediseño, se construye y se puede preensamblar desde fábrica para hacer prácticamente todo lo posible”.

Dentro de este esquema, la energía no queda relegada, sino que se incorpora desde la fase de diseño, asegurando que la infraestructura responda integralmente a las necesidades operativas:

“Parte del concepto de un data center modular es que va al piso blanco y también en un módulo adicional toda la parte de energía”.

La idea es que todos los elementos críticos estén contemplados desde el inicio, evitando ajustes posteriores y garantizando la continuidad del servicio:

“Los kits que se conocen tradicionalmente, toda la parte de distribución de baja y media tensión va a involucrar dentro de los data centers”.

En general, la mayor ventaja de un kit preensamblado de data center, según datos de la firma, se puede ahorrar hasta un 30% de costes de implementación. Y particularmente, en faenas mineras, estos podrían ser reubicados según el frente de trabajo.

Comparación entre la construcción tradicional de un centro de datos y la solución modular en contenedores de Vertiv. Mientras el enfoque convencional requiere fases secuenciales de ingeniería, obras civiles, construcción, instalación e inicio, la alternativa prefabricada permite ejecutar en paralelo la preparación del sitio con la producción en fábrica, reduciendo tiempos en transporte e instalación. Este modelo integrado y probado en fábrica posibilita un ahorro de hasta un 30% en los plazos de implementación. | Créditos: Vertiv.

Sistemas de almacenamiento de energía avanzados de Vertiv

La evolución hacia sistemas de energía más resilientes ha dado lugar al desarrollo de tecnologías de almacenamiento híbridas:

«Nosotros tenemos soluciones, por ejemplo, de Battery Energy Storage System (BESS), que es un microgrid, de cómo tú puedes traer tu propia energía, que esto puede ayudar«.

Esquema de un Sistema de Almacenamiento de Energía en Baterías (BESS), que integra módulos de almacenamiento, sistema de conversión de potencia (PCS), interruptores de corriente continua (DC) y alterna (AC), para la conexión con la red eléctrica de Vertiv. | Créditos: Vertiv

En Chile, esta tendencia se refleja en la rápida expansión de proyectos de gran escala: según datos de la UAI (2025), el país ya cuenta con 886 MW / 3 318 MWh en operación y más de 2 176 MW / 8 519 MWh en evaluación ambiental.

Sistemas con múltiples fuentes energéticas

Estos sistemas integran múltiples fuentes energéticas en soluciones cohesivas que proporcionan mayor flexibilidad operacional. Los especialistas de Vertiv lo ejemplificaron:

«Por ejemplo, son sistemas de UPS con bancos de baterías, con complementos de diferentes soluciones que pueden ser hidrógeno, fotovoltaica, que ayudan a traer poder para poder aliviar ese procesamiento«.

Integración del sistema Vertiv DynaFlex BESS con controladores, celdas de combustible de hidrógeno, centro de datos, red pública, energía solar fotovoltaica, UPS y laboratorio de I+D, en un esquema modular de almacenamiento y gestión energética | Créditos: Vertiv

La proyección es particularmente ambiciosa: de acuerdo con Wood Mackenzie (SolarQuarter, 2025), Chile desplegará 5 GW de almacenamiento en baterías hacia 2030, consolidándose como líder regional en integración de renovables.

Estos sistemas están diseñados específicamente para aprovechar fuentes de energía renovable. Los directivos de Vertiv (2025) lo subrayaron:

«[…] Battery Energy Storage Solution, está diseñado precisamente para eso. Incluso ser una alternativa a los generadores. Para que, digamos, en época, o en momento de radiación solar, toda esa energía, que si no se ocupa, se pierde, se almacene en este tipo de soluciones«.

Un ejemplo reciente es el proyecto híbrido solar + BESS de Atlas Renewable Energy, con 215 MW solares y 418 MW de baterías, financiado con USD 510 millones y apoyado técnicamente por DNV.

La versatilidad de estos sistemas permite su uso tanto para respaldo como para optimización energética activa. Vertiv lo describió en términos operativos:

«[…] Puede estar disponible ya sea para cuando hay ausencia de la energía principal, o para poder hacer lo que se conoce como Peak Shaving en el ámbito industrial, de evitar consumir, en los horarios pico, la energía tradicional y utilizar la energía almacenada de estos dispositivos«.

Este cambio responde también a una preferencia empresarial cada vez más clara. Como precisaron los ejecutivos de Vertiv:

«Hay una tendencia de que las empresas cada día menos quieren hacer estos Generator Starts, estas partidas de generadores a lo mínimo, y tratar de buscar complementos que sean mucho más eficientes, que generen un ahorro, que sean mucho más sostenibles, que hacer partir un generador con diésel«.

La evidencia local refuerza esta visión: el Gobierno de Chile inauguró en 2025 el mayor sistema de almacenamiento con baterías de América Latina, subrayando que este tipo de infraestructura no solo respalda la operación de data centers, sino también la estabilidad de la red nacional.

Microgrids y soluciones para sitios remotos

La necesidad de proporcionar energía confiable en ubicaciones geográficamente desafiantes ha llevado al desarrollo de sistemas autónomos. Según los representantes de Vertiv:

«Los microgrids constituyen una solución para aquellos casos en que no se dispone de energía externa, permitiendo construirla internamente, especialmente en sitios remotos«.

Una microgrid es una red de energía local con límites claramente establecidos, que puede operar conectada a la red eléctrica principal o de manera autónoma en modo isla. Estos sistemas combinan generación distribuida, almacenamiento y control inteligente, lo que permite garantizar un suministro confiable y flexible incluso en entornos donde la infraestructura eléctrica convencional no está disponible.

Diagrama esquemático de una microgrid BYOP (Bring Your Own Power) con integración de fuentes de energía distribuidas (BESS, generadores, celdas de combustible, solar PV y cogeneración CHP), gestionadas por un sistema EMS y conectadas a cargas críticas y generales mediante UPS y switchgear inteligente. | Créditos: Vertiv

La gestión eficiente no se limita al precio del kilowatt-hora, sino que incorpora factores logísticos y operacionales, como el acceso de técnicos a zonas de difícil alcance. Vertiv lo sintetizó en términos claros:

«El costo no necesariamente corresponde al valor del kilowatt, sino al de enviar un técnico a una localidad remota únicamente para cargar combustible. Ese tipo de soluciones, aunque pequeñas en escala, representan un impacto significativo para nuestros clientes«.

El marco regulatorio chileno ofrece incentivos para quienes generan excedentes energéticos y los inyectan a la red. Sin embargo, la percepción empresarial sobre la equidad del esquema es ambivalente.

«Chile es un país preparado para que, si se dispone de energía sobrante y se inyecta a la red, exista un beneficio«.

El caso de microgrid entre Vertiv y Telefónica

En el caso chileno, este enfoque ha sido aplicado en colaboración con operadores de telecomunicaciones, como recordó la compañía, específica con Telefónica:

«En Chile, hace aproximadamente seis años, implementamos junto a Telefónica un proyecto que consistió en llevar soluciones de microgrid a localidades muy apartadas, en espacios de infraestructura reducida, con el objetivo de garantizar la disponibilidad de servicio telefónico«.

Telefónica necesitaba actualizar sus sitios fuera de la red en Chile para soportar tecnologías 3G y 4G, reduciendo el consumo energético de sitios que operaban con generadores diésel hasta 14 horas diarias.

Problemática inicial:

  • Sitios fuera de la red necesitaban actualización de 2G a 3G y 4G
  • Generadores diésel operando 8-14 horas diarias
  • Altos costos operativos y de mantenimiento
  • Arquitectura energética ineficiente para nuevas tecnologías
  • Ubicaciones remotas con infraestructura limitada
Evolución de los sitios fuera de la red de Telefónica: incremento progresivo del uso de generadores diésel desde la implementación 2G (4 horas/día) hasta la evolución 4G (14 horas/día), evidenciando el deterioro del equipo y la ineficiencia energética. | Créditos: Vertiv

Este ejemplo evidencia cómo los microgrids permiten desplegar conectividad en áreas rurales, donde la infraestructura tradicional de la red resulta inviable. La clave está en integrar de manera coordinada diversas fuentes energéticas.

«Lo que hicimos fue instalar un administrador de energía que gestionaba el traspaso de una fuente a otra, en función de su disponibilidad y de su costo«.

Solución técnica implementada:

  • Paneles solares de alta eficiencia (265 Wp)
  • Controladores híbridos NetSure™ 5100 (administradores de energía)
  • Baterías de carga rápida VRLA con capacidades variables
  • Generadores diésel optimizados (1000 horas antes de mantenimiento)
  • Inversores de 800 VA
  • Sistema de monitoreo Trellis™ Critical Insight
  • Gestión inteligente del traspaso entre fuentes energéticas
Arquitectura de la solución híbrida de Vertiv: integración de paneles solares (265 Wp), controlador NetSur 5100 de Vertiv, bancos de baterías, generador diésel optimizado (20 kVA) e inversor, con sistema de monitoreo Trellis™ Critical Insight para gestión energética inteligente. | Créditos: Vertiv.

Resultados obtenidos:

  • Reducción del uso de generador: de 8-14 horas a 4 horas diarias
  • Ahorro anual en combustible: 215,000 EUR
  • Optimización de mantenimiento: de 13 servicios anuales a 1 cada 8 meses
  • Retorno de inversión: menos de 3 años
  • Vida útil del generador: 4 veces mayor por uso limitado
  • Baterías mantenidas completamente cargadas
Ivan

Editor especializado en ciencia y tecnología, con foco en innovación, inteligencia artificial, telecomunicaciones y centros de datos. Trabajo con un enfoque riguroso y técnico, desarrollando contenidos sobre semiconductores, energía, ciberseguridad e infraestructura tecnológica.

Los comentarios de Disqus están cargando....