Intel desarrolla sistemas de enfriamiento avanzados para mejorar la eficiencia energética en chips de inteligencia artificial.

Con el auge de la IA y de los data centers dedicados a esta materia, las firmas tecnológicas, como Intel, están creando nuevas formas de sistemas de enfriamiento para los chips que están a cargo de los procesos de inteligencia artificial.
La Agencia Internacional de Energía destaca que el consumo eléctrico de los centros de datos podría más que duplicarse y alcanzar los 945 TWh hacia 2030, impulsado por el uso de tecnologías de IA.
Por lo anterior, es claro que los chips, GPU y/o aceleradoras, necesitan sistemas de enfriamiento moderno, sobre todo porque cada una de estas pueden generar hasta más de 1kWatt de calor, niveles comparables a electrodomésticos como hervidores eléctricos o secadores de pelo.
Bajo esta mecánica, se hace necesario invertir, y en este punto Intel está trabajando en soluciones de enfriamiento para evitar que el calor limite el avance de la IA, por mencionar algunos:
La razón por la que Intel recurre a conocimientos provenientes del análisis de incendios para abordar el enfriamiento de chips es que comparten los mismos fundamentos físicos. Termodinámica, transferencia de calor y mecánica de fluidos son principios que Rajiv Mongia, ingeniero principal de Intel, aplica desde su experiencia previa en turbinas de gas y análisis de fallas estructurales.
Rajiv Mongia, ingeniero principal en Intel y líder del Thermal Core Competency Group dentro de Intel Foundry, encabeza el equipo que enfrenta el desafío térmico que representan los chips de nueva generación. Antes de llegar a Intel, trabajó en turbinas de gas y en análisis de fallas, incluyendo el estudio del colapso de las Torres Gemelas el 11 de septiembre de 2001.
«A medida que lleguemos al trillón de transistores en una GPU y entre dos y tres kilovatios de potencia para 2030, va a ser muy entretenido resolver el problema térmico.»
Rajiv Mongia, ingeniero principal de Intel
Desde hace más de dos décadas, Mongia trabaja para que la refrigeración no sea un obstáculo para el avance tecnológico que describe la Ley de Moore. Hoy, sus esfuerzos se centran en los paquetes multi-chip y en cómo anticipar problemas térmicos desde las primeras fases de diseño.
La razón por la que Intel desarrolla sistemas de enfriamiento es la creciente demanda de eficiencia en chips de inteligencia artificial, donde la arquitectura multi-chip genera una concentración térmica cada vez más difícil de controlar.
Para solucionar este dilema, Rajiv Mongia ejecuta cerca de 100 mil simulaciones térmicas mensuales y ha establecido nuevos estándares para modelar el comportamiento de estructuras apiladas como las memorias HBM. Este trabajo ha permitido implementar rediseños estructurales y tecnologías de refrigeración líquida integradas directamente en el paquete.
«Lo que la gente olvida es cuán interdependiente es todo, desde el silicio hasta el sistema completo, para asegurarse de que estás cooptimizando en todo ese espectro. Por contradictorio que suene, podría incluso aumentar la potencia de un componente y hacerlo más fácil de enfriar.»
Rajiv Mongia, ingeniero principal de Intel
Intel explora nuevas tecnologías para la refrigeración directa de chips:
Una de las ideas que estudia el equipo de Rajiv Mongia, es emplazar la tapa metálica tradicional por una placa fría integrada, diseñada con aletas internas que permiten mejorar la transferencia de calor. Esto lo consigue mediante un mecanismo de circulación líquida que disipa el calor desde el núcleo del chip de manera más eficiente.
Las pruebas realizadas sobre GPUs arrojan lo siguiente:
«Estamos explorando cosas como cómo llevar líquido dentro de la propia pila de silicio. Imagínate el líquido no solo dentro de la tapa, sino girando dentro de la pila tridimensional de silicio. Eso sí que sería interesante.»
Rajiv Mongia, ingeniero principal de Intel