patricio Zaparta - UTA /
Patricio Zapata, vicerrector de Desarrollo Estratégico de la UTA | Créditos: UTA

Universidad de Tarapacá anunció un centro de supercomputación con 96 GPUs NVIDIA H200 en Arica

En el marco de Congreso Futuro 2026, la Universidad de Tarapacá (UTA) confirmó la construcción de un nuevo centro de supercómputación en Arica para junio de 2026. La infraestructura busca descentralizar el procesamiento de datos científicos, evitando la dependencia de proveedores cloud extranjeros.

Especificaciones técnicas del hardware del

El diseño contempla 12 servidores físicos equipados individualmente con ocho unidades de procesamiento gráfico NVIDIA H200. Esta configuración permite ejecutar cargas de trabajo intensivas de IA y modelamiento matemático.

GPU NVIDIA H200 | Créditos: NVIDIA

El sistema totaliza 96 GPUs de última generación conectadas mediante una topología de baja latencia. Se utilizarán protocolos InfiniBand y NVLink con relación 1:1 para asegurar el ancho de banda.

Ficha técnica:

  • Nodos de cómputo: 12 Servidores de Alta Densidad
  • Unidades de procesamiento: 96 x NVIDIA H200 (8 por nodo)
  • Interconexión 1:1 vía InfiniBand y NVLink
  • Ubicación: Arica, Región de Arica y Parinacota
  • Fecha de operación: Junio de 2026 (Obras en licitación)

La potencia bruta tras la GPU NVIDIA H200

Esta CPU cuenta con dos modelos base: el H200 SXM y el H200 NVL. Basados en los datos del anuncio y la ficha técnica, utilizará el modelo SXM.

Configuración de hardware HGX

El anuncio especifica el uso de 12 servidores con 8 GPUs cada uno, lo cual coincide con la arquitectura de referencia NVIDIA HGX H200. Este diseño de placa base utiliza exclusivamente módulos SXM para soportar la densidad de ocho aceleradores en un solo nodo.

El formato NVL, al ser tarjeta PCIe, está orientado principalmente a servidores empresariales estándar MGX que suelen limitar el ancho de banda por ranura. La plataforma HGX es el estándar industrial para clústeres de supercómputo dedicados como el descrito por la universidad.

Topología de interconexión NVLink

El texto detalla una interconexión 1:1 mediante NVLink, característica nativa de la tecnología NVSwitch integrada en las placas SXM. Esta topología permite que las 8 GPUs se comuniquen simultáneamente a 900 GB/s sin bloqueos.

En contraste, la versión NVL (PCIe) utiliza puentes físicos (“Bridges”) de 2 o 4 vías que no ofrecen la misma latencia uniforme. Para un centro de “alto rendimiento” (HPC), la topología SXM es obligatoria para escalar tareas masivas.

Rendimiento térmico y TDP

El modelo SXM admite un TDP máximo de 700W, permitiendo sostener frecuencias de reloj más altas bajo carga continua. La versión NVL está limitada a 600W debido a las restricciones físicas de refrigeración por aire en formato PCIe.

Para un proyecto que busca ser “el más grande del país”, se prioriza el rendimiento bruto del silicio SXM sobre la compatibilidad del formato NVL.

Potencia de cálculo y estandarización Top500

La clasificación mundial de supercomputadores utiliza el rendimiento en operaciones de doble precisión (FP64) como métrica estándar. Este formato numérico garantiza la precisión necesaria para simulaciones científicas complejas que no admiten márgenes de error.

Considerando las 96 GPUs con 34 TFLOPS vectoriales cada una, el sistema alcanza un Rpeak de 3,26 PFLOPS. Si se aprovechan los Tensor Cores para operaciones matriciales FP64, el rendimiento teórico máximo escalaría hasta 6,43 PFLOPS.

Estructura de costos y financiamiento

La inversión directa de la universidad asciende a 5.200 millones de pesos para la infraestructura física. Este monto es independiente de los fondos estatales asignados recientemente a otros centros de cómputo.

La operación local proyecta un ahorro superior a 60 millones de dólares en cinco años. El cálculo se basa en la eliminación de costos variables por arrendamiento de servidores externos.

  • CAPEX (Inversión UTA): ~$5.200 millones CLP
  • Ahorro OPEX (5 años): > $60 millones USD (vs Cloud)
  • Origen de fondos: recursos institucionales y Mineduc

Síguenos en Google News