Zyphra entrenará modelos multimodales de inteligencia artificial en IBM Cloud utilizando GPUs AMD Instinct MI300X.

Nodo y Módulo GPU AMD Instinct MI300X | Créditos: AMD
Zyphra, empresa de investigación en IA Open Source, acordó con IBM y AMD la implementación de infraestructura de entrenamiento de gran escala en IBM Cloud.
El proyecto contempla un clúster de GPUs AMD Instinct MI300X destinado al desarrollo de modelos fundacionales multimodales en lenguaje, visión y audio.
Nota editorial: Un modelo funcional multimodal es un sistema de IA capaz de procesar y combinar distintos tipos de datos, como texto, imágenes, audio o video, para generar una comprensión más completa y contextualizada de la información.
La compañía planea utilizar este entorno para acelerar el desarrollo de Maia, un superagente diseñado para avanzar en el entrenamiento de modelos multimodales que integren lenguaje, visión y audio, con capacidad de escalar a medida que aumenten las demandas de cómputo.
La alianza entre las tecnológicas permitirá que Zyphra realice sus investigaciones y desarrollos de nuevas arquitecturas de redes neuronales para aprendizaje continuo y memoria de largo plazo.
Este clúster (grupo de servidores) marca el primer entrenamiento dedicado en IBM Cloud basado exclusivamente en un ecosistema de GPUs de AMD. Esta es una infraestructura dedicada a maximizar modelos de IA generativa y aplicaciones de alto rendimiento, aprovechando las capacidades de seguridad, escalabilidad y confiabilidad de IBM Cloud.
Maia es un superagente de propósito general en desarrollo por Zyphra, diseñado como una plataforma de inteligencia artificial multimodal.
El proyecto incorpora mecanismos que buscan darle a Maia capacidades de adaptación y evolución a lo largo del tiempo.
El entrenamiento de Maia se realizará en infraestructura de gran escala para potenciar sus capacidades.
El conjunto de 8 de estos módulos genera un nodo de cómputo, como se ven las siguientes imágenes:
La siguiente imagen de SuperMicro, muestra un conjunto de nodos de GPU AMD MI300X con un sistema de enfriamiento por aire que ocupa de 6 a 8 U en el gabinete.
La infraestructura incluye no solo las GPUs MI300X, sino también las tarjetas de red inteligentes AMD Pensando Pollara 400 AI NICs y las AMD Pensando Ortano DPUs, configuradas para optimizar la transferencia de datos y el rendimiento en cargas de trabajo intensivas de inteligencia artificial.
Con esta hoja de ruta, IBM y AMD consolidan su colaboración en tecnologías que combinan rendimiento clásico y cuántico, orientadas al desarrollo de una nueva generación de infraestructura para inteligencia artificial.