El supercomputador JUPITER inaugura la era de la exaescala en Europa con un diseño modular, eficiencia energética y aplicaciones científicas estratégicas.

Vista entre los racks del supercomputador JUPITER | Créditos: Centro de Investigación de Jülich / Sascha Kreklau
La era de la supercomputación exaescala ha llegado, y en la medida que transcurren los meses se van inaugurando nuevas máquinas. Esta vez fue el turno del supercomputador JUPITER, ubicado en el Centro de Supercomputación de Jülich en Alemania, y es el primero en el viejo continente en llegar a la exaescala.
JUPITER es fruto de una década de investigación y colaboración paneuropea, con el objetivo de impulsar la ciencia, la IA y la soberanía tecnológica:
La exaescala corresponde a la capacidad de realizar un quintillón (10¹⁸) de operaciones de punto flotante de doble precisión (FP64) por segundo, lo que implica un rendimiento mil veces superior al de los supercomputadores petaescala.
JUPITER, desde su concepción, fue concebido para integrar en un mismo entorno:
El sistema responde a cuatro desafíos técnicos identificados por la comunidad científica:
TOP500, la reconocida lista que recoge los SuperPCs del planeta, posicionó a JUPITER se ubicó en el cuarto lugar mundial y primero en Europa, con un rendimiento sostenido de 793,4 petaflops en el benchmark HPL. La siguiente tabla resume el top 5.
Por otra parte, JUPITER destacó por su eficiencia energética, superando los 60 gigaflops por vatio, un parámetro clave en la lista Green500. Su prototipo JEDI alcanzó incluso el puesto número 1 en eficiencia con 72,73 gigaflops por vatio.
El supercomputador Jupiter está basado en una arquitectura modular lo diferencia de los diseños monolíticos de la competencia, que combina:
Este diseño permite adaptar el hardware a diferentes etapas de un flujo de trabajo científico y proyecta un futuro en el que se podrán incorporar módulos cuánticos o neuromórficos.
El diseño de JUPITER se basa en la Arquitectura de Sistema Modular dinámica (dMSA) de ParTec, gestionada por el software ParaStation Modulo, que permite coordinar módulos especializados y presentarlos como un único sistema coherente al usuario. La infraestructura física utiliza la arquitectura BullSequana XH3000 de Eviden.
Este enfoque facilita adaptar los recursos de hardware a distintos tipos de cargas de trabajo y proyecta un futuro en el que módulos emergentes puedan integrarse de manera orgánica en los supercomputadores europeos.
El sistema se aloja en un Centro de Datos Modular (MDC) con unos 50 módulos prefabricados ensamblados en sitio, lo que redujo tiempos y costos de construcción. Todos los componentes se conectan mediante la red NVIDIA Quantum-2 InfiniBand para garantizar un movimiento de datos de alta velocidad sin cuellos de botella.
La refrigeración se realiza con la tecnología líquida directa de los racks Eviden, que utiliza agua caliente y reutiliza el calor residual para la calefacción del campus.
La siguiente tabla resume las especificaciones técnicas general del Supercomputador Jupiter:
El supercomputador JUPITER emplea un avanzado sistema de refrigeración líquida directa, desarrollado por Eviden, que utiliza agua caliente para extraer el calor de los componentes electrónicos.
Esta tecnología no solo aumenta la eficiencia energética en comparación con sistemas de aire acondicionado tradicionales, sino que también permite reutilizar el calor residual para la calefacción de edificios en el campus de Jülich, contribuyendo a la sostenibilidad del proyecto.
El uso de agua caliente aporta varias ventajas:
El sistema de enfriamiento se apoya en unidades externas instaladas en el techo del Centro de Datos Modular (MDC), que regulan la temperatura del circuito de agua y mantienen el rendimiento estable incluso en cargas de trabajo intensivas.
A nivel de rack, los nodos del módulo Booster están equipados con conexiones dedicadas que permiten el flujo continuo de agua, garantizando un enfriamiento uniforme y reduciendo el riesgo de fallos por sobrecalentamiento.
En conjunto, este enfoque posiciona a JUPITER como un referente en eficiencia energética para la supercomputación de exaescala, con un consumo estimado de entre 11 y 17 MW.
El módulo Booster concentra la mayor potencia de cálculo del sistema, optimizado para inteligencia artificial y simulaciones masivas, potenciados por 24.000 Superchips NVIDIA GH200 Grace Hopper, cada uno con una CPU Grace de 72 núcleos (basada en Arm)
El módulo Booster de JUPITER se distribuye en siete salas de TI que albergan sus racks de computación. Estas instalaciones no solo destacan por la densidad de hardware, sino también por la infraestructura necesaria para sostener un sistema de exaescala.
En la imagen anterior se aprecia una de las salas donde se alojan los racks del Booster, parte central de la potencia de JUPITER. Desde allí se coordinan miles de superchips NVIDIA GH200 Grace Hopper que proporcionan la capacidad de cómputo a gran escala.
Las siguientes dos imágenes muestran la parte trasera de estos racks, donde es visible el sistema de refrigeración líquida por agua caliente. Este diseño no solo mantiene el rendimiento estable de los componentes, sino que además permite reutilizar el calor residual para la climatización de los edificios del campus del Centro de Investigación de Jülich, reforzando el compromiso del proyecto con la sostenibilidad.
El NVIDIA GH200 Grace Hopper Superchip combina una CPU Arm Grace de 72 núcleos con una GPU Hopper (H100/H200), unidas mediante NVLink-C2C con 900 GB/s de ancho de banda, siete veces más rápido que PCIe Gen5. Esta integración permite que CPU y GPU compartan memoria sin copias intermedias, acelerando el procesamiento hasta 36 veces.
El superchip admite hasta 624 GB de memoria rápida entre CPU y GPU, con soporte para HBM3/HBM3e y configuraciones flexibles de LPDDR5X (120, 240 o 480 GB). La GPU puede incorporar 96 GB (H100) o 144 GB (H200). Su consumo es configurable entre 450 W y 1000 W.
Además, puede escalarse en configuraciones como el GH200 NVL2, que conecta dos superchips, lo que lo convierte en una plataforma ideal para IA generativa, modelos de lenguaje grandes y análisis de datos masivos.
El módulo Cluster está diseñado para flujos de trabajo que requieren gran ancho de banda y capacidad de memoria, en lugar de aceleración por GPU. Representa un paso clave hacia la independencia tecnológica europea.
Para manejar los grandes volúmenes de datos, JUPITER integra:
El desarrollo de JUPITER es resultado de una asociación que reunió a instituciones públicas y privadas. La Empresa Común Europea de Computación de Alto Rendimiento (EuroHPC JU) aportó el 50% de la inversión total de 500 millones de euros, asegurando además el acceso a investigadores de toda Europa mediante un sistema de asignación por revisión de pares.
JUPITER está llamado a acelerar investigaciones críticas en diversos campos:
La siguiente tabla entrega más detalle sobre las principales aplicaciones de Jupiter.