Google DeepMind presentó nuevos avances de AlphaEvolve, un sistema basado en Gemini que busca diseñar y optimizar algoritmos mediante propuestas generadas, evaluadas y refinadas por IA. La idea central no es reemplazar el trabajo científico, sino ampliar la búsqueda de soluciones en problemas donde el cálculo, la precisión y la validación técnica limitan el avance.
AlphaEvolve se aplica sobre problemas científicos ya definidos, donde una mejora pequeña puede reducir errores, ahorrar cálculo o permitir resultados más precisos. Esa lógica explica su uso en análisis de ADN, física cuántica, matemáticas y otros campos donde el diseño del algoritmo puede cambiar el resultado final.
¿Cómo trabaja AlphaEvolve, el agente de IA de Google DeepMind para diseñar algoritmos?
AlphaEvolve es un agente de IA basado en Gemini que no se limita a responder preguntas, sino que genera, prueba y mejora código para encontrar algoritmos más eficientes.
Google DeepMind lo describe como un sistema que evoluciona:
- Parte de una tarea definida por científicos o ingenieros.
- Usa modelos de lenguaje para proponer cambios.
- Evalúa cada resultado con pruebas automáticas antes de conservar las mejores variantes.

En palabras simples, AlphaEvolve funciona como un agente de IA aplicado a tareas científicas: toma un problema concreto y automatiza parte del proceso de prueba, comparación y ajuste de algoritmos, siempre sobre objetivos que pueden medirse.
- El investigador define la tarea, el programa inicial y la forma en que se medirá si una solución funciona.
- El sistema construye instrucciones para que un conjunto de modelos Gemini proponga cambios sobre el código.
- Las variantes generadas se ejecutan y se comparan con evaluadores automáticos.
- Las soluciones se puntúan según criterios objetivos, como precisión, error, eficiencia o factibilidad.
- Las versiones con mejor desempeño pasan a una base de programas, desde donde pueden volver a usarse como punto de partida para nuevas mejoras.

Ese mecanismo explica por qué AlphaEvolve puede aparecer en áreas científicas muy distintas sin cambiar su principio de trabajo. La tarea no consiste en “hacer ciencia” por sí sola, sino en buscar mejores procedimientos computacionales para problemas donde una pequeña mejora algorítmica puede reducir errores, ahorrar cálculo o abrir nuevas rutas de análisis.

Aplicaciones científicas de AlphaEvolve
AlphaEvolve fue presentado por Google DeepMind como un sistema basado en Gemini para diseñar y optimizar algoritmos avanzados. En los casos científicos descritos, su uso se concentra en mejorar modelos ya existentes, reducir errores, encontrar soluciones factibles o generar variantes algorítmicas para problemas complejos.
En términos simples, AlphaEvolve funciona como un agente de IA aplicado a tareas científicas: toma un problema concreto y automatiza parte del proceso de prueba, comparación y ajuste de algoritmos, siempre sobre objetivos que pueden medirse.
Conserva las soluciones con mejor desempeño para que puedan ser revisadas, usadas o refinadas por investigadores.
- Recibe una tarea definida, como reducir errores en análisis de ADN, mejorar una simulación cuántica o buscar mejores límites en un problema matemático.
- Genera posibles variantes algorítmicas para resolver esa tarea, en lugar de limitarse a una sola respuesta.
- Evalúa esas variantes con métricas concretas, como precisión, error, factibilidad o eficiencia computacional.
- Descarta las alternativas que no mejoran el resultado o que no cumplen las restricciones del problema.
Genómica: Análisis de ADN con AlphaEvolve
En genómica, AlphaEvolve se aplicó sobre DeepConsensus, un modelo de Google Research usado para corregir errores en secuenciación de ADN. El punto técnico está en mejorar la detección de variantes, es decir, la identificación de diferencias genéticas relevantes dentro de datos de secuenciación.
“La solución que el equipo de Google descubrió usando AlphaEvolve permite tasas de precisión significativamente más altas para nuestros instrumentos de secuenciación. Para los investigadores, estos datos de mayor calidad podrían permitir el descubrimiento de mutaciones causantes de enfermedades que antes estaban ocultas”.
Aaron Wenger, director sénior en PacBio.
- DeepConsensus: modelo usado para corregir errores en lecturas de ADN antes del análisis de variantes.
- Detección de variantes: tarea que identifica cambios genéticos relevantes dentro de los datos secuenciados.
- Resultado reportado: reducción de 30% en errores de detección de variantes.
- Aplicación descrita: Análisis de datos genéticos junto a PacBio con mayor precisión y menor costo.
Optimización de redes eléctricas
En redes eléctricas, AlphaEvolve se aplicó al problema AC Optimal Power Flow, usado para calcular cómo debe operar una red de corriente alterna sin romper sus límites físicos, técnicos y de demanda. El enlace técnico asociado es CANOS, un solver neuronal basado en Graph Neural Network que busca resolver ese problema con rapidez en redes eléctricas grandes.

- AC Optimal Power Flow: problema que determina cuánta energía debe generar el sistema y cómo debe distribuirla, con el menor costo posible y respetando restricciones operativas.
- CANOS: modelo de aprendizaje profundo que predice soluciones cercanas al óptimo para AC-OPF, con resultados dentro de 1% del costo real informado en el paper.
- Graph Neural Network: arquitectura que representa la red eléctrica como nodos y conexiones, una estructura adecuada para sistemas con buses, líneas y cambios de topología.
- Escala evaluada: el trabajo de CANOS reporta pruebas en redes de hasta 10.000 buses, con tiempos de ejecución entre 33 ms y 65 ms.
- Perturbaciones N-1: pruebas donde se evalúa si el modelo sigue funcionando cuando un componente de la red sale de operación.
- Resultado con AlphaEvolve: Google DeepMind informa que la capacidad del modelo para encontrar soluciones factibles subió desde 14% hasta más de 88%.
- Efecto técnico: al encontrar más soluciones válidas desde el modelo, se reduce la necesidad de pasos posteriores de corrección en redes eléctricas.
Ciencias de la Tierra
En ciencias de la Tierra, AlphaEvolve se aplicó sobre Earth AI, una familia de modelos geoespaciales que combina información de escala planetaria, datos de población, variables ambientales y razonamiento basado en Gemini. El desafío está en convertir datos dispersos, con distintas resoluciones y escalas temporales, en resultados útiles para evaluar riesgos naturales.

- Earth AI: sistema descrito como una familia de modelos geoespaciales y razonamiento con Gemini para extraer información útil sobre el planeta.
- Datos geoespaciales complejos: información vinculada a territorio, ambiente, población e imágenes de escala planetaria, con resoluciones y tiempos distintos.
- Razonamiento multimodal: capacidad de cruzar modelos, datos y herramientas para responder consultas geoespaciales de varios pasos.
- Resultado reportado: mejora de 5% en la precisión general para predecir riesgo de desastres naturales.
- Alcance de evaluación: medición agregada sobre 20 categorías de riesgo.
- Categorías mencionadas: incendios forestales, inundaciones y tornados.
- Rol de AlphaEvolve: automatizar la optimización de modelos Earth AI para obtener predicciones más fiables y accionables.

Física cuántica
En física cuántica, AlphaEvolve se conecta con el paper “Quantum computation of molecular geometry via many-body nuclear spin echoes», donde se usan circuitos cuánticos optimizados para ejecutar simulaciones moleculares en el procesador Willow de Google. El punto central es que AlphaEvolve ayudó a proponer circuitos con 10 veces menos error frente a líneas base optimizadas de manera convencional.
- Simulación molecular: cálculo que busca representar propiedades o estructuras de moléculas difíciles de estudiar con métodos clásicos.
- Willow: procesador cuántico superconductivo de Google usado para ejecutar las simulaciones descritas.
- Circuitos cuánticos optimizados: programas que organizan operaciones cuánticas para aproximar la evolución de un sistema molecular.
- Resultado reportado: circuitos sugeridos por AlphaEvolve con 10 veces menos error que las líneas base convencionales.
- Alcance del paper: uso de ecos de espín nuclear y OTOC para estimar información de geometría molecular en moléculas orgánicas.

Para entenderlo sin física cuántica: los investigadores no ven la molécula como una foto, sino que miden cómo reaccionan sus partes cuando reciben una señal. Luego comparan esa reacción con una simulación hasta acercarse mejor a su forma real.
- NMR: aporta señales experimentales obtenidas en laboratorio.
- OTOC: permite analizar cómo una perturbación se propaga dentro del sistema molecular.
- Computación cuántica: simula esa dinámica cuando el cálculo clásico resulta limitado.
- Comparación clásica: contrasta la simulación con los datos experimentales disponibles.
- Retroalimentación: ajusta el modelo cuando la simulación y el experimento no coinciden.
- Resultado buscado: estimar mejor la geometría molecular a partir de información indirecta.
Matemáticas
En matemáticas, AlphaEvolve se usó en problemas abiertos y desafíos clásicos de optimización. Aquí conviene explicar cada concepto, porque Erdős, Ramsey y el problema del viajante no son equivalentes entre sí ni pertenecen al mismo tipo de dificultad.
«Herramientas como AlphaEvolve están dando a los matemáticos nuevas capacidades muy útiles. Para problemas de optimización en particular, ahora podemos probar rápidamente posibles desigualdades en busca de contraejemplos, o confirmar nuestras creencias sobre cuáles son los extremizadores, lo que mejora enormemente nuestra intuición sobre estos problemas y nos permite encontrar pruebas rigurosas con mayor facilidad”.
Terence Tao, profesor de Matemáticas en UCLA

- Problemas de Erdős: desafíos abiertos asociados a Paul Erdős. En el caso mostrado, el problema se puede explicar como un juego matemático: Alice reparte monedas en pilas y Bob busca una subsecuencia monótona que le asegure la mayor fracción posible del total.s.
- Problema del viajante: desafío de optimización que busca la ruta más corta para visitar un conjunto de puntos y regresar al origen. DeepMind reporta mejoras en límites inferiores para este problema.
- Números de Ramsey: valores que indican cuándo una estructura ordenada aparece de manera inevitable dentro de sistemas grandes, como grafos coloreados. DeepMind también reporta mejoras en límites inferiores para este campo.
- Límites inferiores: barreras matemáticas que muestran hasta dónde puede llegar una solución mínima o una construcción extrema, según el problema.

