Noticias

Qualcomm presenta los chips AI200 y AI250 para potenciar la inferencia de IA generativa en data centers

Notas Pisapapeles dijo: Qualcomm presenta los chips AI200 y AI250, nuevas soluciones para centros de datos que optimizan la inferencia de IA generativa con mayor eficiencia y menor costo.

Compartir

Qualcomm anunció el lanzamiento de sus nuevas soluciones para centros de datos, los modelos AI200 y AI250. Están desarrollados para optimizar el rendimiento y la eficiencia en procesos de inferencia de inteligencia artificial generativa a gran escala. Están pensados para responder a las crecientes demandas de procesamiento.

Estas plataformas combinan una alta capacidad de memoria con un uso energético eficiente. Con ello, Qualcomm busca establecer un nuevo estándar en infraestructura de IA para empresas que necesitan escalar sus soluciones basado en bajos costos de energía.

¿Por qué los Qualcomm AI200 y AI250 cambian las reglas del juego en la inferencia de IA para centros de datos?

Los nuevos aceleradores de Qualcomm apuntan directamente a uno de los mayores desafíos actuales: ejecutar modelos de IA generativa gigantes con eficiencia y bajo costo.

Con los AI200 y AI250, la firma apunta a data centers más escalable y sostenibles para manejar tareas intensivas como los modelos de lenguaje (LLM) y los modelos multimodales (LMM).

El Qualcomm AI200 está diseñado para ofrecer rendimiento y eficiencia a gran escala, con una arquitectura que equilibra costos, memoria y flexibilidad en entornos corporativos exigentes.

  • Tipo: Solución de inferencia a nivel de rack.
  • Enfoque: Modelos LLM y LMM.
  • Memoria: 768 GB de LPDDR por tarjeta.
  • Beneficio: Mayor capacidad de procesamiento y reducción de costos operativos.
  • Escalabilidad: Arquitectura adaptable para entornos corporativos.

El Qualcomm AI250 introduce una nueva arquitectura de memoria enfocada en eficiencia energética y ancho de banda, ofreciendo un salto generacional en rendimiento para tareas de inferencia de IA.

  • Tecnología: Computación cercana a la memoria (near-memory computing).
  • Mejora: Más de 10x en ancho de banda efectivo.
  • Ventaja: Menor consumo energético.
  • Aplicación: Inferencia desagregada y uso eficiente del hardware.
  • Objetivo: Ajuste al rendimiento y costos de cada cliente.

Ambas soluciones integran sistemas de refrigeración, conectividad y seguridad diseñados para optimizar el rendimiento térmico y la protección de datos en centros de datos modernos.

  • Refrigeración: Líquida directa.
  • Conectividad: PCIe para escalar verticalmente y Ethernet para escalar horizontalmente.
  • Seguridad: Computación confidencial para cargas de trabajo de IA.
  • Consumo: 160 kW por rack.
  • Uso: Diseñado para centros de datos de alto rendimiento.

Durga Malladi, vicepresidente senior y gerente general de Tecnología, Edge Solutions & Data Center de Qualcomm Technologies, afirmó:

«Con los Qualcomm AI200 y AI250 estamos redefiniendo lo que es posible en la inferencia de IA a escala de rack. Estas soluciones permiten a las empresas desplegar IA generativa con un costo total de propiedad sin precedentes, manteniendo la flexibilidad y seguridad que requieren los centros de datos actuales. Nuestro ecosistema abierto y nuestra pila de software optimizada facilitan la integración, gestión y escalabilidad de modelos entrenados en nuestras plataformas.»

Durga Malladi, vicepresidente senior y gerente general de Tecnología, Edge Solutions & Data Center de Qualcomm Technologies

Una hoja de ruta anual hacia la eficiencia y el rendimiento de IA

Las soluciones AI200 y AI250 no solo destacan por su hardware, sino también por el ecosistema de software que las acompaña. Qualcomm busca que la implementación de modelos generativos y de aprendizaje automático sea tan fluida como su ejecución, ofreciendo herramientas pensadas para desarrolladores y operadores de centros de datos.

  • Enfoque: Adopción rápida, segura y escalable.
  • Pila de software: De nivel hiperescalador, optimizada para inferencia de IA.
  • Compatibilidad: Integración con los principales frameworks de machine learning y generación de IA.
  • Implementación: Soporte para modelos de Hugging Face mediante la Efficient Transformers Library.
  • Plataforma: Qualcomm AI Inference Suite con herramientas, bibliotecas y APIs listas para producción.

Ivan

Editor especializado en ciencia y tecnología, con foco en innovación, inteligencia artificial, telecomunicaciones y centros de datos. Trabajo con un enfoque riguroso y técnico, desarrollando contenidos sobre semiconductores, energía, ciberseguridad e infraestructura tecnológica.

Los comentarios de Disqus están cargando....