NVIDIA lanza en CES 2026 la plataforma Rubin: seis chips para supercomputación que reducen 10 veces el costo de inferencia en modelos de IA.

Durante su participación en CES 2026, Jensen Huang, CEO de NVIDIA, anunció el lanzamiento de su plataforma Rubin, una arquitectura diseñada para reducir los costos de inferencia y los tiempos de entrenamiento en modelos de IA a gran escala. Detrás de esta idea se encuentra una arquitectura de 6 chips dedicados a data center.
Prácticamente, el anuncio se centra en el lanzamiento de la plataforma NVIDIA Rubin, un supercomputador de IA de nueva generación compuesto por seis chips diseñados con «codesign extremo».
NVIDIA Rubin Platform: Un supercomputador de IA con seis componentes integrados:
La plataforma Rubin se basa en el diseño conjunto de hardware y software para reducir hasta 10 veces el costo por token en tareas de inferencia (el proceso donde una IA ya entrenada genera respuestas a partir de nuevos datos).
Esta configuración permite entrenar modelos MoE (arquitecturas de «mezcla de expertos» que activan solo las secciones necesarias del modelo para cada tarea) utilizando cuatro veces menos unidades de procesamiento gráfico que la generación Blackwell previa.
El núcleo de esta tecnología incluye el procesador Vera CPU, que cuenta con 88 núcleos personalizados bajo la arquitectura Armv9.2 para gestionar tareas de razonamiento de nivel agente. Por su parte, la GPU Rubin alcanza un rendimiento de 50 petaflops en cómputo NVFP4, apoyándose en una tercera generación de motores de transformación para acelerar la ejecución de modelos de lenguaje complejos.
Mejoras de rendimiento clave:
La plataforma NVIDIA Rubin se presenta en distintas físicas o configuraciones de hardware optimizadas para data centers de IA a gran escala, permitiendo flexibilidad según el tamaño del despliegue y los socios integradores.
El NVIDIA Vera Rubin NVL72 es un sistema rack-scale completo que integra 72 GPUs Rubin, 36 CPUs Vera, interconexiones NVLink 6, SuperNICs y BlueField-4 DPUs en un solo rack unificado y seguro. Esta solución llave en mano está diseñada para «AI factories» de hyperscalers como AWS, Microsoft Azure y CoreWeave.
El NVIDIA HGX Rubin NVL8, por su parte, consiste en una placa de servidor estándar con 8 GPUs Rubin conectadas por NVLink, orientada a fabricantes OEM como Dell, HPE, Lenovo y Supermicro. Facilita la construcción de nodos de cómputo de alta densidad para cargas de trabajo de IA generativa y HPC en arquitecturas x86.