WeatherNext 2 utiliza datos aislados de cada variable y logra predecir sistemas atmosféricos completos con coherencia física.

Google DeepMind y Google Research han presentado la segunda versión de su sistema de predicción meteorológica, denominado WeatherNext 2, el cual introduce cambios significativos en la plataforma de modelado para la generación de múltiples escenarios climáticos.
Este desarrollo se centra en la capacidad de ejecutar inferencias probabilísticas de alta velocidad mediante el uso de unidades de procesamiento tensorial (TPU), permitiendo calcular cientos de escenarios posibles en menos de un minuto a partir de una única entrada de datos inicial.
El núcleo técnico de WeatherNext 2 reside en la adopción de un enfoque de modelado basado en Redes Generativas Funcionales (FGN), una arquitectura que difiere de los métodos deterministas tradicionales utilizados en la predicción numérica del tiempo.
El sistema utiliza redes neuronales entrenadas de forma independiente e inyecta ruido directamente en el espacio funcional del modelo, lo que garantiza que las variaciones generadas en los pronósticos mantengan una coherencia física y estén interconectadas de manera lógica.
Para entender mejor cómo funciona WeatherNext 2, imagina lo siguiente:
Con esto mente, el modelo funcionan entrenando variables por separado, inyecta variaciones y aun así genera escenarios climáticos completos y físicamente consistentes.
Este método permite al algoritmo capturar un rango completo de posibilidades atmosféricas, incluidos los escenarios de baja probabilidad o eventos extremos que suelen ser difíciles de modelar. El modelo supera en rendimiento a la versión anterior en el 99,9% de las variables analizadas, como temperatura, viento y humedad, considerando plazos de predicción que abarcan de 0 a 15 días.
FGN trabaja usando datos aislados de cada variable climática y con esa información parcial es capaz de formar una representación coherente de los sistemas atmosféricos completos que dependen de múltiples interacciones.
A pesar de este entrenamiento limitado a componentes singulares, el sistema infiere eficazmente el comportamiento de los conjuntos. Esto logra predecir fenómenos de gran escala que dependen de la correlación precisa entre múltiples variables atmosféricas, validando la eficacia del aprendizaje no supervisado en dinámicas complejas.
Para comprender la distinción entre el entrenamiento con marginales y la predicción de conjuntos, volvamos a los músicos, pero esta vez a un estudiante:
Entonces, ¿qué ocurre?
Si bien la formación del estudiante solo le permite conocer un violín o una guitarra, su cerebro logra comprender las reglas matemáticas y armónicas que los unen para crear una sinfonía compleja sin haber practicado nunca con la orquesta completa.
¿Qué opinas de lo que ha presentado Google?