Durante su participación en CES 2026, Jensen Huang, CEO de NVIDIA, anunció el lanzamiento de su plataforma Rubin, una arquitectura diseñada para reducir los costos de inferencia y los tiempos de entrenamiento en modelos de IA a gran escala. Detrás de esta idea se encuentra una arquitectura de 6 chips dedicados a data center.
Prácticamente, el anuncio se centra en el lanzamiento de la plataforma NVIDIA Rubin, un supercomputador de IA de nueva generación compuesto por seis chips diseñados con «codesign extremo».
NVIDIA Rubin Platform: Un supercomputador de IA con seis componentes integrados:
- NVIDIA Vera CPU: 88 núcleos Olympus personalizados (Armv9.2), optimizado para razonamiento agentico y máxima eficiencia energética en data centers de IA a gran escala
- NVIDIA Rubin GPU: Entrega 50 petaflops de compute NVFP4 con tercera generación de Transformer Engine e compresión adaptativa acelerada por hardware
- NVIDIA NVLink 6 Switch: Interconexión GPU-a-GPU con 3.6TB/s de ancho de banda por GPU; rack Vera Rubin NVL72 ofrece 260TB/s total (más que todo el internet combinado)
- NVIDIA ConnectX-9 SuperNIC: Adaptador de red de última generación
- NVIDIA BlueField-4 DPU: Procesador de seguridad y almacenamiento con nueva arquitectura ASTRA (Advanced Secure Trusted Resource Architecture)
- NVIDIA
Arquitectura de seis chips para el entrenamiento de modelos avanzados de la plataforma NVIDIA Rubin
La plataforma Rubin se basa en el diseño conjunto de hardware y software para reducir hasta 10 veces el costo por token en tareas de inferencia (el proceso donde una IA ya entrenada genera respuestas a partir de nuevos datos).
Esta configuración permite entrenar modelos MoE (arquitecturas de «mezcla de expertos» que activan solo las secciones necesarias del modelo para cada tarea) utilizando cuatro veces menos unidades de procesamiento gráfico que la generación Blackwell previa.
El núcleo de esta tecnología incluye el procesador Vera CPU, que cuenta con 88 núcleos personalizados bajo la arquitectura Armv9.2 para gestionar tareas de razonamiento de nivel agente. Por su parte, la GPU Rubin alcanza un rendimiento de 50 petaflops en cómputo NVFP4, apoyándose en una tercera generación de motores de transformación para acelerar la ejecución de modelos de lenguaje complejos.
Mejoras de rendimiento clave:
- 10x reducción en costo de inferencia por token vs. plataforma Blackwell anterior
- 4x menos GPUs necesarias para entrenar modelos Mixture-of-Experts (MoE)
- 5x mejor eficiencia energética en switches de fotónica Spectrum-X
- 260TB/s de ancho de banda total en rack (vs. capacidad previa)
Formatos de físicos del ecosistema Rubin
La plataforma NVIDIA Rubin se presenta en distintas físicas o configuraciones de hardware optimizadas para data centers de IA a gran escala, permitiendo flexibilidad según el tamaño del despliegue y los socios integradores.
El NVIDIA Vera Rubin NVL72 es un sistema rack-scale completo que integra 72 GPUs Rubin, 36 CPUs Vera, interconexiones NVLink 6, SuperNICs y BlueField-4 DPUs en un solo rack unificado y seguro. Esta solución llave en mano está diseñada para «AI factories» de hyperscalers como AWS, Microsoft Azure y CoreWeave.
El NVIDIA HGX Rubin NVL8, por su parte, consiste en una placa de servidor estándar con 8 GPUs Rubin conectadas por NVLink, orientada a fabricantes OEM como Dell, HPE, Lenovo y Supermicro. Facilita la construcción de nodos de cómputo de alta densidad para cargas de trabajo de IA generativa y HPC en arquitecturas x86.

