META

Meta apuesta por una mayor capacidad computacional con el nuevo modelo Llama 4

Meta ha anunciado un salto significativo en la capacidad de computación necesaria para entrenar su más reciente modelo de inteligencia artificial, Llama 4. Este aumento representa un desafío tecnológico y una oportunidad de innovación para la empresa.

En una reciente conferencia sobre los resultados financieros, Mark Zuckerberg destacó que el entrenamiento de Llama 4 exigirá hasta diez veces más capacidad computacional que su predecesor. Esta expansión es fundamental para mantener el liderazgo de Meta en el desarrollo de modelos de lenguaje de código abierto, frente a sus competidores en el acelerado campo de la inteligencia artificial.

Según Zuckerberg, «la cantidad de procesamiento necesario para entrenar a Llama 4 probablemente será casi 10 veces mayor que la que usamos para entrenar a Llama 3, y los modelos futuros seguirán creciendo más allá de eso».

Llama 3 fue lanzado con 8 mil millones de parámetros, mientras que su versión mejorada, Llama 3.1 405B, cuenta ahora con 405 mil millones de parámetros, convirtiéndose en el modelo de código abierto más grande desarrollado por Meta hasta la fecha.

La directora financiera de Meta, Susan Li, explicó que la empresa está evaluando nuevos proyectos de centros de datos para soportar la creciente demanda de recursos computacionales. Estas inversiones son parte de una estrategia más amplia que incluye el aumento en los gastos de capital, los cuales se elevaron un 33% en comparación con el año anterior, alcanzando los 8500 millones de dólares en el segundo trimestre de 2024.

¿Cómo crees que impactará esta expansión en la evolución futura de los modelos de IA?

FUENTE
Síguenos en Google News