Síguenos en Google News
Nodo y Módulo GPU AMD Instinct MI300X | Créditos: AMD
Nodo y Módulo GPU AMD Instinct MI300X | Créditos: AMD

Zyphra desarrollará modelos fundacionales de IA en IBM Cloud con GPUs AMD MI300X

Zyphra, empresa de investigación en IA Open Source, acordó con IBM y AMD la implementación de infraestructura de entrenamiento de gran escala en IBM Cloud.

El proyecto contempla un clúster de GPUs AMD Instinct MI300X destinado al desarrollo de modelos fundacionales multimodales en lenguaje, visión y audio.

Nota editorial: Un modelo funcional multimodal es un sistema de IA capaz de procesar y combinar distintos tipos de datos, como texto, imágenes, audio o video, para generar una comprensión más completa y contextualizada de la información.

¿Para qué usará Zyphra la infraestructura en IBM Cloud con GPUs AMD?

La compañía planea utilizar este entorno para acelerar el desarrollo de Maia, un superagente diseñado para avanzar en el entrenamiento de modelos multimodales que integren lenguaje, visión y audio, con capacidad de escalar a medida que aumenten las demandas de cómputo.

La alianza entre las tecnológicas permitirá que Zyphra realice sus investigaciones y desarrollos de nuevas arquitecturas de redes neuronales para aprendizaje continuo y memoria de largo plazo.

Este clúster (grupo de servidores) marca el primer entrenamiento dedicado en IBM Cloud basado exclusivamente en un ecosistema de GPUs de AMD. Esta es una infraestructura dedicada a maximizar modelos de IA generativa y aplicaciones de alto rendimiento, aprovechando las capacidades de seguridad, escalabilidad y confiabilidad de IBM Cloud.

¿Qué es Maia?

Maia es un superagente de propósito general en desarrollo por Zyphra, diseñado como una plataforma de inteligencia artificial multimodal.

  • Capaz de trabajar con múltiples tipos de datos.
  • Integra lenguaje, visión y audio en un mismo sistema.
  • Permite ejecutar tareas complejas con mayor contexto.

El proyecto incorpora mecanismos que buscan darle a Maia capacidades de adaptación y evolución a lo largo del tiempo.

  • Incluye memoria a largo plazo.
  • Integra aprendizaje continuo.
  • Puede adaptarse a nuevas experiencias y datos.
  • Desarrolla estrategias flexibles más allá de instrucciones predefinidas.

El hardware detrás de Maia

El entrenamiento de Maia se realizará en infraestructura de gran escala para potenciar sus capacidades.

  • Entrenado en IBM Cloud.
  • Utiliza GPUs AMD Instinct MI300X.
  • Soportado con infraestructura de red y aceleración de AMD.
  • Permite explorar arquitecturas neuronales avanzadas.
  • Facilita la construcción de representaciones multimodales de información.
PCB de la GPU AMD MI300X | Créditos: AMD
Módulo Acelerador AMD Instinct™ MI300X: La unidad de procesamiento individual. Este es el acelerador de GPU en formato OAM que se instala en la placa base de la primera imagen. Su revolucionario diseño de chiplets y sus 192 GB de memoria HBM3 lo convierten en uno de los motores de IA más potentes del mundo. | Créditos: AMD

El conjunto de 8 de estos módulos genera un nodo de cómputo, como se ven las siguientes imágenes:

GPU AMD Instinct MI300X | Créditos: AMD
Plataforma AMD Instinct™ MI300X: El corazón de un nodo de supercomputación (vista solo de cuatro módulos). Esta placa base (Universal Baseboard) está diseñada para albergar e interconectar ocho potentes aceleradores MI300X, permitiéndoles trabajar como una única unidad ultra potente para las tareas más exigentes de Inteligencia Artificial. | Créditos: AMD
Vista de los 8 módulos en el nodo de cómputo de AMD | Créditos: AMD
Vista de los 8 módulos en el nodo de cómputo de AMD | Créditos: AMD

La siguiente imagen de SuperMicro, muestra un conjunto de nodos de GPU AMD MI300X con un sistema de enfriamiento por aire que ocupa de 6 a 8 U en el gabinete.

Uno AMD MI300X refrigerado por aire, puede ocupar hasta  8U de espacio en el rack | Créditos: SuperMicro.
Uno AMD MI300X refrigerado por aire, puede ocupar hasta 8U de espacio en el rack | Créditos: SuperMicro.

La infraestructura incluye no solo las GPUs MI300X, sino también las tarjetas de red inteligentes AMD Pensando Pollara 400 AI NICs y las AMD Pensando Ortano DPUs, configuradas para optimizar la transferencia de datos y el rendimiento en cargas de trabajo intensivas de inteligencia artificial.

Con esta hoja de ruta, IBM y AMD consolidan su colaboración en tecnologías que combinan rendimiento clásico y cuántico, orientadas al desarrollo de una nueva generación de infraestructura para inteligencia artificial.

Fuente: AMD
Síguenos en Google News