OpenAI comenzaría a utilizar chips TPU (Tensor Processing Units) de Google para reducir los costos asociados a su infraestructura de inteligencia artificial. Hasta ahora, la firma detrás de ChatGPT es uno de los mayores consumidores mundiales de servidores equipados con chips de Nvidia, pero busca diversificar sus proveedores, según informó el medio especializado The Information.
Las TPU de Google Cloud son procesadores diseñados para acelerar el entrenamiento y la inferencia de modelos de inteligencia artificial. La inferencia corresponde al proceso en que un modelo ya entrenado se ejecuta para generar respuestas, predicciones o resultados en tiempo real.
Estas TPU se utilizan en asistentes, generación de contenido, visión artificial y personalización, y además potencian servicios como Búsqueda, Fotos y Maps, que alcanzan a más de mil millones de usuarios.
¿Por qué OpenAI apuesta por los TPU de Google?
El medio destaca que hay dos motivos por el cual OpenAI recurre a los TPU de Google:
- Reducir los altos costos asociados al funcionamiento de su inteligencia artificial
- Diversificar su infraestructura tecnológica, que hasta ahora dependía principalmente de Microsoft y Nvidia.
Los TPU, que se arriendan a través de Google Cloud, permitirían a OpenAI disminuir los costos de inferencia. Este término se refiere a los procesos que permiten ejecutar modelos de IA una vez que ya han sido entrenados.
Demanda de cómputo y gastos de OpenAI:
- OpenAI enfrenta una demanda creciente de recursos de cómputo debido al aumento en el uso de ChatGPT.
- ChatGPT supera los 25 millones de suscriptores de pago, cifra que ha crecido desde los 15 millones reportados a comienzos de 2025.
- Cientos de millones de personas utilizan ChatGPT de forma gratuita cada semana.
- Para cubrir esta demanda, OpenAI arrienda servidores con chips Nvidia a través de Microsoft y Oracle.
- En 2024, la empresa gastó más de 4 mil millones de dólares en servidores con chips Nvidia, distribuidos en partes iguales entre entrenamiento e inferencia.
- Se prevé que ese gasto aumente a cerca de 14 mil millones de dólares en 2025.
- OpenAI comenzó a utilizar chips TPU de Google para reducir los costos de inferencia y diversificar sus proveedores de cómputo.
Google reserva sus chips más potentes
Según relata The Information, la gran G no facilitaría las TPU más avanzadas para el trabajo de OpenAI, así lo señala un empleado de Google Cloud citado por el medio digital:
«Google está reservando sus TPU más potentes principalmente para sus propios equipos que desarrollan los modelos Gemini de IA«.
Empleado de Google Cloud \ Vía The Information
De momento, tampoco está claro si OpenAI pretende utilizar los TPU de Google para entrenar sus modelos, una tarea que exige mucho más poder de cómputo y donde los chips de Nvidia siguen siendo el estándar de la industria.
Otros detalles del acuerdo:
- Los TPU que arrienda OpenAI se utilizan exclusivamente a través de Google Cloud.
- Google no ha confirmado si ofrece descuentos o incentivos económicos a OpenAI, algo que sí ha hecho con otras empresas.
- El acuerdo ya está generando presión sobre la infraestructura de centros de datos de Google Cloud.

En ese contexto, Google lleva años invirtiendo en el desarrollo de sus TPU, con las siguientes generaciones:
- TPU 5e (2023): Optimizado para eficiencia de costos, disponible para ingenieros de Google y clientes de Google Cloud.
- TPU 5p (2023): Optimizado para rendimiento, disponible para ingenieros de Google y clientes de Google Cloud.
- TPU 6e (2024): Disponible para ingenieros de Google y clientes de Google Cloud.
- TPU 6p (2025): Próximamente disponible.
- TPU 7 (2026): Producción masiva proyectada para 2026, fabricados en colaboración con MediaTek y Broadcom.
OpenAI, Microsoft y un panorama en transformación
Este acuerdo representa un revés para Microsoft, su socio estratégico y principal inversionista en IA. Los de Redmond han invertido motos altos en el desarrollo de su propio chip de IA, con la intención de que OpenAI lo adopte.
Sin embargo, dado que el chip de Microsoft enfrenta bastantes retrasos, en el corto plazo se ve imposible que OpenAI los use, y además, tampoco tendría la capacidad de cómputo de los de NVIDIA.
El artículo de The Information, también señala que otras empresas como Apple, Safe Superintelligence y Cohere también arriendan los chips TPU de Google. Esto se explica en parte por qué algunos de sus empleados trabajaron anteriormente en Google y conocen bien esta tecnología. Por su parte, Meta evaluó implementarlos, pero lo descartó.