Categorías: Noticias

Intel muestra avances en IA con Arc Pro B-Series y Xeon 6 en MLPerf v5.1

Intel destaca en MLPerf Inference v5.1 con Arc Pro B-Series y Xeon 6, mostrando mejoras en inferencia de IA para estaciones y edge.

Compartir

Intel anunció que los resultados en los benchmarks de MLPerf Inference v5.1, presentados por el consorcio MLCommons, detallan que la propuesta por combinar procesadores Xeon 6 con P-cores y las GPUs Arc Pro B60 es una excelente alternativa para cargas de trabajo en IA.

¿Qué significan los resultados para Intel de la Arc Pro B-Series y Xeon 6 en MLPerf v5.1?

Significa que la combinación de la GPU Arc Pro B-Series y la CPU Xeon 6, es una alternativa correcta pensando en una mezcla de carga de trabajo para uso general y para cargas de IA.

En materia de IA, la pruebas más exigentes, Llama 8B, las GPUs Arc Pro B60 lograron hasta 1,25 veces más rendimiento por dólar que la NVIDIA RTX Pro 6000 y hasta 4 veces más que la L40S.

Esta información permite a Intel de ofrecer plataformas de IA accesibles, potentes y listas para implementarse en estaciones de trabajo o sistemas en edge, así lo expresó Lisa Pearce, vicepresidenta corporativa y gerente general de Software, GPU y NPU IP Group en Intel:

«Los resultados de MLPerf v5.1 son una validación poderosa de la estrategia de GPU e IA de Intel. Nuestras GPUs Arc Pro B-Series, junto con una pila de software optimizada para inferencia, permiten a desarrolladores y empresas crear y desplegar aplicaciones potenciadas por IA en estaciones de trabajo accesibles, escalables y fáciles de implementar.»

Lisa Pearce, vicepresidenta corporativa y gerente general de Software, GPU y NPU IP Group en Intel

Project Battlematrix: una apuesta integral

Project Battlematrix integra hardware y software validados conjuntamente; esto pretende que se pueda simplificar la adopción de IA.

La solución está basada en ambientes con contenedores de Linux, y permite un escalado multi-GPU, transferencia de datos PCIe P2P.

Los gráficos muestran el consumo de VRAM en dos escenarios: el context scaling refleja cómo crece el uso de memoria al aumentar la ventana de contexto de los modelos (más tokens procesados), mientras que el concurrency scaling evidencia el incremento de VRAM al ejecutar múltiples inferencias en paralelo. | Créditos: Intel.

Al observar los gráficos de Context Scaling y Concurrency Scaling evidencian cómo el consumo de VRAM aumenta de manera lineal al crecer la ventana de contexto o la concurrencia, lo que valida la eficiencia del escalado en configuraciones de 2 a 4 GPUs dentro de la plataforma Battlematrix.

Ivan

Editor especializado en ciencia y tecnología, con foco en innovación, inteligencia artificial, telecomunicaciones y centros de datos. Trabajo con un enfoque riguroso y técnico, desarrollando contenidos sobre semiconductores, energía, ciberseguridad e infraestructura tecnológica.

Los comentarios de Disqus están cargando....
Publicado por
Ivan