Categorías: Noticias

JUPITER: el primer supercomputador exaescala de Europa

El supercomputador JUPITER inaugura la era de la exaescala en Europa con un diseño modular, eficiencia energética y aplicaciones científicas estratégicas.

Compartir

La era de la supercomputación exaescala ha llegado, y en la medida que transcurren los meses se van inaugurando nuevas máquinas. Esta vez fue el turno del supercomputador JUPITER, ubicado en el Centro de Supercomputación de Jülich en Alemania, y es el primero en el viejo continente en llegar a la exaescala.

Vista aérea del campus de Jülich con el Centro de Datos Modular (a la izquierda), donde se encuentra alojado JUPITER | Créditos: Centro de Investigación de Jülich / Sascha Kreklau

JUPITER es fruto de una década de investigación y colaboración paneuropea, con el objetivo de impulsar la ciencia, la IA y la soberanía tecnológica:

  • El sistema se denomina Joint Undertaking Pioneer for Innovative and Transformative Exascale Research (JUPITER), es epañol Empresa Conjunta Pionera para la Investigación Exaescala Innovadora y Transformadora.
  • Surge de más de una década de trabajo en arquitectura modular.
  • Se enmarca en un modelo de colaboración público-privada paneuropea.
  • Su objetivo es impulsar la investigación científica.
  • También busca favorecer el desarrollo de la inteligencia artificial.
  • Y pretende reforzar la soberanía tecnológica de Europa.

¿Qué diferencia al supercomputador JUPITER en la era de la exaescala?

La exaescala corresponde a la capacidad de realizar un quintillón (10¹⁸) de operaciones de punto flotante de doble precisión (FP64) por segundo, lo que implica un rendimiento mil veces superior al de los supercomputadores petaescala.

JUPITER, desde su concepción, fue concebido para integrar en un mismo entorno:

  • Simulaciones científicas
  • Análisis de datos masivos
  • Entrenamiento de modelos de IA, consolidando cargas de trabajo que antes operaban de forma separada.

El sistema responde a cuatro desafíos técnicos identificados por la comunidad científica:

  • Alto consumo de energía: JUPITER reduce el gasto operativo con un consumo estimado entre 11 y 17 MW.
  • Movimiento de datos: integra memoria de alto ancho de banda (HBM) para acelerar transferencias y minimizar cuellos de botella.
  • Tolerancia a fallos: incorpora mecanismos de resiliencia para mantener la operación estable en sistemas de gran escala.
  • Paralelismo extremo: utiliza el poder masivo de GPU para procesar millones de hilos de forma simultánea.

Posicionamiento en el escenario global de la HPC

TOP500, la reconocida lista que recoge los SuperPCs del planeta, posicionó a JUPITER se ubicó en el cuarto lugar mundial y primero en Europa, con un rendimiento sostenido de 793,4 petaflops en el benchmark HPL. La siguiente tabla resume el top 5.

Por otra parte, JUPITER destacó por su eficiencia energética, superando los 60 gigaflops por vatio, un parámetro clave en la lista Green500. Su prototipo JEDI alcanzó incluso el puesto número 1 en eficiencia con 72,73 gigaflops por vatio.

Arquitectura general y diseño

El supercomputador Jupiter está basado en una arquitectura modular lo diferencia de los diseños monolíticos de la competencia, que combina:

  • El módulo Booster, optimizado para cargas altamente paralelas
  • El módulo Cluster, que integrará el procesador europeo SiPearl Rhea1.
Vista de un rack de JUPITER con blades de cómputo, que son módulos delgados que concentran procesadores, memoria y conexiones para tareas de alto rendimiento | Créditos: Centro de Investigación de Jülich / Sascha Kreklau

Este diseño permite adaptar el hardware a diferentes etapas de un flujo de trabajo científico y proyecta un futuro en el que se podrán incorporar módulos cuánticos o neuromórficos.

Concepto de moduladridad de ParTec, permite ampliación futura sistemas de computación cuántica | Créditos: ParTec | Vía: Chapuzas Informático

El diseño de JUPITER se basa en la Arquitectura de Sistema Modular dinámica (dMSA) de ParTec, gestionada por el software ParaStation Modulo, que permite coordinar módulos especializados y presentarlos como un único sistema coherente al usuario. La infraestructura física utiliza la arquitectura BullSequana XH3000 de Eviden.

Este enfoque facilita adaptar los recursos de hardware a distintos tipos de cargas de trabajo y proyecta un futuro en el que módulos emergentes puedan integrarse de manera orgánica en los supercomputadores europeos.

Esquema de la Arquitectura de Sistema Modular Dinámica (dMSA) de ParTec | Créditos: ParTec

El sistema se aloja en un Centro de Datos Modular (MDC) con unos 50 módulos prefabricados ensamblados en sitio, lo que redujo tiempos y costos de construcción. Todos los componentes se conectan mediante la red NVIDIA Quantum-2 InfiniBand para garantizar un movimiento de datos de alta velocidad sin cuellos de botella.

Vista de un rack abierto del supercomputador JUPITER | Créditos: Centro de Investigación de Jülich / Sascha Kreklau

La refrigeración se realiza con la tecnología líquida directa de los racks Eviden, que utiliza agua caliente y reutiliza el calor residual para la calefacción del campus.

Detalle de un rack del supercomputador JUPITER con la marca Eviden | Créditos: Centro de Investigación de Jülich / Sascha Kreklau

La siguiente tabla resume las especificaciones técnicas general del Supercomputador Jupiter:

Gestión térmica y eficiencia energética

El supercomputador JUPITER emplea un avanzado sistema de refrigeración líquida directa, desarrollado por Eviden, que utiliza agua caliente para extraer el calor de los componentes electrónicos.

Esta tecnología no solo aumenta la eficiencia energética en comparación con sistemas de aire acondicionado tradicionales, sino que también permite reutilizar el calor residual para la calefacción de edificios en el campus de Jülich, contribuyendo a la sostenibilidad del proyecto.

El uso de agua caliente aporta varias ventajas:

  • Eficiencia energética, al evitar sistemas de enfriamiento adicionales como chillers.
  • Sostenibilidad, ya que el calor extraído se reutiliza para calefacción en el campus Jülich.
  • Escalabilidad, al permitir que el sistema soporte altas densidades de potencia sin cuellos de botella térmicos.
Vista del techo del Centro de Datos Modular con las unidades de refrigeración de JUPITER | Créditos: Centro de Investigación de Jülich / Sascha Kreklau

El sistema de enfriamiento se apoya en unidades externas instaladas en el techo del Centro de Datos Modular (MDC), que regulan la temperatura del circuito de agua y mantienen el rendimiento estable incluso en cargas de trabajo intensivas.

Unidades de refrigeración en el techo del Centro de Datos Modular donde se encuentra JUPITER | Créditos: Centro de Investigación de Jülich / Sascha Kreklau

A nivel de rack, los nodos del módulo Booster están equipados con conexiones dedicadas que permiten el flujo continuo de agua, garantizando un enfriamiento uniforme y reduciendo el riesgo de fallos por sobrecalentamiento.

Detalle de la parte trasera de los racks del módulo Booster de JUPITER con sistema de refrigeración por agua caliente | Créditos: Centro de Investigación de Jülich / Sascha Kreklau

En conjunto, este enfoque posiciona a JUPITER como un referente en eficiencia energética para la supercomputación de exaescala, con un consumo estimado de entre 11 y 17 MW.

Módulo Booster: el motor de exaescala

El módulo Booster concentra la mayor potencia de cálculo del sistema, optimizado para inteligencia artificial y simulaciones masivas, potenciados por 24.000 Superchips NVIDIA GH200 Grace Hopper, cada uno con una CPU Grace de 72 núcleos (basada en Arm)

  • Procesadores: aproximadamente 24.000 Superchips NVIDIA GH200 Grace Hopper, cada uno con una CPU Grace de 72 núcleos (basada en Arm) y una GPU de arquitectura Hopper.
  • Nodos y racks: unos 24.000 nodos distribuidos en 125 racks.
  • Memoria: memoria unificada de alta velocidad integrada en cada superchip GH200.
  • Rendimiento pico: 930 petaflops (Rpeak).
  • Rendimiento sostenido: 793,4 petaflops (Rmax, LINPACK).
  • Rendimiento en IA: hasta 90 exaflops en cálculos de baja precisión (FP8).

El módulo Booster de JUPITER se distribuye en siete salas de TI que albergan sus racks de computación. Estas instalaciones no solo destacan por la densidad de hardware, sino también por la infraestructura necesaria para sostener un sistema de exaescala.

Vista de una de las siete salas de TI que albergan los racks del módulo Booster de JUPITER | Créditos: Centro de Investigación de Jülich / Sascha Kreklau

En la imagen anterior se aprecia una de las salas donde se alojan los racks del Booster, parte central de la potencia de JUPITER. Desde allí se coordinan miles de superchips NVIDIA GH200 Grace Hopper que proporcionan la capacidad de cómputo a gran escala.

Las siguientes dos imágenes muestran la parte trasera de estos racks, donde es visible el sistema de refrigeración líquida por agua caliente. Este diseño no solo mantiene el rendimiento estable de los componentes, sino que además permite reutilizar el calor residual para la climatización de los edificios del campus del Centro de Investigación de Jülich, reforzando el compromiso del proyecto con la sostenibilidad.

Vista de la parte trasera de los racks del módulo Booster de JUPITER con sistema de refrigeración por agua caliente | Créditos: Centro de Investigación de Jülich / Sascha Kreklau

El Superchip NVIDIA GH200 Grace Hopper: El músculo de cálculo

El NVIDIA GH200 Grace Hopper Superchip combina una CPU Arm Grace de 72 núcleos con una GPU Hopper (H100/H200), unidas mediante NVLink-C2C con 900 GB/s de ancho de banda, siete veces más rápido que PCIe Gen5. Esta integración permite que CPU y GPU compartan memoria sin copias intermedias, acelerando el procesamiento hasta 36 veces.

El Superchip NVIDIA GH200 Grace Hopper | Créditos: NVIDIA

El superchip admite hasta 624 GB de memoria rápida entre CPU y GPU, con soporte para HBM3/HBM3e y configuraciones flexibles de LPDDR5X (120, 240 o 480 GB). La GPU puede incorporar 96 GB (H100) o 144 GB (H200). Su consumo es configurable entre 450 W y 1000 W.

Además, puede escalarse en configuraciones como el GH200 NVL2, que conecta dos superchips, lo que lo convierte en una plataforma ideal para IA generativa, modelos de lenguaje grandes y análisis de datos masivos.

Módulo Cluster: soberanía europea y cargas intensivas en memoria

El módulo Cluster está diseñado para flujos de trabajo que requieren gran ancho de banda y capacidad de memoria, en lugar de aceleración por GPU. Representa un paso clave hacia la independencia tecnológica europea.

  • Procesadores: dos CPUs SiPearl Rhea1 por nodo, con 80 núcleos Arm Neoverse V1 cada uno.
  • Total de nodos: más de 1.300.
  • Memoria por nodo: 128 GB de HBM2e integrada y 512 GB de DDR5.
  • Disponibilidad: previsto para inicios de 2026, en función de los plazos de fabricación del procesador Rhea1.

Infraestructura de almacenamiento compartida

Para manejar los grandes volúmenes de datos, JUPITER integra:

  • ExaFLASH: módulo flash de 21 PB para acceso rápido a datos.
  • ExaSTORE: sistema de almacenamiento de alta capacidad para archivo y grandes volúmenes.

Ecosistema colaborativo europeo

El desarrollo de JUPITER es resultado de una asociación que reunió a instituciones públicas y privadas. La Empresa Común Europea de Computación de Alto Rendimiento (EuroHPC JU) aportó el 50% de la inversión total de 500 millones de euros, asegurando además el acceso a investigadores de toda Europa mediante un sistema de asignación por revisión de pares.

Firmas que colaboraron en el desarrollo del Supercomputadro Jupiter | Jülich

Aplicaciones científicas y estratégicas

JUPITER está llamado a acelerar investigaciones críticas en diversos campos:

  • Clima y meteorología: simulaciones a escala de kilómetros para mejorar predicciones de fenómenos extremos y proyecciones climáticas a largo plazo.
  • Neurociencia y medicina: modelado de redes neuronales y dinámica molecular para investigar enfermedades neurodegenerativas y apoyar el diseño de fármacos.
  • Inteligencia artificial: entrenamiento de modelos de lenguaje multilingües, desarrollo de modelos fundacionales de video y sistemas multimodales que integren texto, imagen y datos.
  • Física fundamental y simulación cuántica: cálculos de precisión sobre el momento magnético del muón y simulación de hasta 50 cúbits para validar hardware cuántico y desarrollar algoritmos.

La siguiente tabla entrega más detalle sobre las principales aplicaciones de Jupiter.

Fuentes: NVIDIA | Jülich

Ivan

Editor especializado en ciencia y tecnología, con foco en innovación, inteligencia artificial, telecomunicaciones y centros de datos. Trabajo con un enfoque riguroso y técnico, desarrollando contenidos sobre semiconductores, energía, ciberseguridad e infraestructura tecnológica.

Los comentarios de Disqus están cargando....
Publicado por
Ivan