Universidad Tarapacá creará centro de supercomputación en Arica con 96 GPUs H200. Inversión de $5.200 millones para descentralizar IA desde junio 2026.

Patricio Zapata, vicerrector de Desarrollo Estratégico de la UTA | Créditos: UTA
En el marco de Congreso Futuro 2026, la Universidad de Tarapacá (UTA) confirmó la construcción de un nuevo centro de supercómputación en Arica para junio de 2026. La infraestructura busca descentralizar el procesamiento de datos científicos, evitando la dependencia de proveedores cloud extranjeros.
El diseño contempla 12 servidores físicos equipados individualmente con ocho unidades de procesamiento gráfico NVIDIA H200. Esta configuración permite ejecutar cargas de trabajo intensivas de IA y modelamiento matemático.
El sistema totaliza 96 GPUs de última generación conectadas mediante una topología de baja latencia. Se utilizarán protocolos InfiniBand y NVLink con relación 1:1 para asegurar el ancho de banda.
Ficha técnica:
Esta CPU cuenta con dos modelos base: el H200 SXM y el H200 NVL. Basados en los datos del anuncio y la ficha técnica, utilizará el modelo SXM.
El anuncio especifica el uso de 12 servidores con 8 GPUs cada uno, lo cual coincide con la arquitectura de referencia NVIDIA HGX H200. Este diseño de placa base utiliza exclusivamente módulos SXM para soportar la densidad de ocho aceleradores en un solo nodo.
El formato NVL, al ser tarjeta PCIe, está orientado principalmente a servidores empresariales estándar MGX que suelen limitar el ancho de banda por ranura. La plataforma HGX es el estándar industrial para clústeres de supercómputo dedicados como el descrito por la universidad.
El texto detalla una interconexión 1:1 mediante NVLink, característica nativa de la tecnología NVSwitch integrada en las placas SXM. Esta topología permite que las 8 GPUs se comuniquen simultáneamente a 900 GB/s sin bloqueos.
En contraste, la versión NVL (PCIe) utiliza puentes físicos (“Bridges”) de 2 o 4 vías que no ofrecen la misma latencia uniforme. Para un centro de “alto rendimiento” (HPC), la topología SXM es obligatoria para escalar tareas masivas.
El modelo SXM admite un TDP máximo de 700W, permitiendo sostener frecuencias de reloj más altas bajo carga continua. La versión NVL está limitada a 600W debido a las restricciones físicas de refrigeración por aire en formato PCIe.
Para un proyecto que busca ser “el más grande del país”, se prioriza el rendimiento bruto del silicio SXM sobre la compatibilidad del formato NVL.
La clasificación mundial de supercomputadores utiliza el rendimiento en operaciones de doble precisión (FP64) como métrica estándar. Este formato numérico garantiza la precisión necesaria para simulaciones científicas complejas que no admiten márgenes de error.
Considerando las 96 GPUs con 34 TFLOPS vectoriales cada una, el sistema alcanza un Rpeak de 3,26 PFLOPS. Si se aprovechan los Tensor Cores para operaciones matriciales FP64, el rendimiento teórico máximo escalaría hasta 6,43 PFLOPS.
La inversión directa de la universidad asciende a 5.200 millones de pesos para la infraestructura física. Este monto es independiente de los fondos estatales asignados recientemente a otros centros de cómputo.
La operación local proyecta un ahorro superior a 60 millones de dólares en cinco años. El cálculo se basa en la eliminación de costos variables por arrendamiento de servidores externos.