
OpenAI comenzaría a utilizar chips TPU (Tensor Processing Units) de Google para reducir los costos asociados a su infraestructura de inteligencia artificial. Hasta ahora, la firma detrás de ChatGPT es uno de los mayores consumidores mundiales de servidores equipados con chips de Nvidia, pero busca diversificar sus proveedores, según informó el medio especializado The Information.
Las TPU de Google Cloud son procesadores diseñados para acelerar el entrenamiento y la inferencia de modelos de inteligencia artificial. La inferencia corresponde al proceso en que un modelo ya entrenado se ejecuta para generar respuestas, predicciones o resultados en tiempo real.
Estas TPU se utilizan en asistentes, generación de contenido, visión artificial y personalización, y además potencian servicios como Búsqueda, Fotos y Maps, que alcanzan a más de mil millones de usuarios.
El medio destaca que hay dos motivos por el cual OpenAI recurre a los TPU de Google:
Los TPU, que se arriendan a través de Google Cloud, permitirían a OpenAI disminuir los costos de inferencia. Este término se refiere a los procesos que permiten ejecutar modelos de IA una vez que ya han sido entrenados.
Demanda de cómputo y gastos de OpenAI:
Según relata The Information, la gran G no facilitaría las TPU más avanzadas para el trabajo de OpenAI, así lo señala un empleado de Google Cloud citado por el medio digital:
«Google está reservando sus TPU más potentes principalmente para sus propios equipos que desarrollan los modelos Gemini de IA«.
Empleado de Google Cloud \ Vía The Information
De momento, tampoco está claro si OpenAI pretende utilizar los TPU de Google para entrenar sus modelos, una tarea que exige mucho más poder de cómputo y donde los chips de Nvidia siguen siendo el estándar de la industria.
Otros detalles del acuerdo:
En ese contexto, Google lleva años invirtiendo en el desarrollo de sus TPU, con las siguientes generaciones:
Este acuerdo representa un revés para Microsoft, su socio estratégico y principal inversionista en IA. Los de Redmond han invertido motos altos en el desarrollo de su propio chip de IA, con la intención de que OpenAI lo adopte.
Sin embargo, dado que el chip de Microsoft enfrenta bastantes retrasos, en el corto plazo se ve imposible que OpenAI los use, y además, tampoco tendría la capacidad de cómputo de los de NVIDIA.
El artículo de The Information, también señala que otras empresas como Apple, Safe Superintelligence y Cohere también arriendan los chips TPU de Google. Esto se explica en parte por qué algunos de sus empleados trabajaron anteriormente en Google y conocen bien esta tecnología. Por su parte, Meta evaluó implementarlos, pero lo descartó.