ChatPaper.aiChatPaper

Aster: Descubrimiento Científico Autónomo 20 Veces Más Rápido que los Métodos Existentes

Aster: Autonomous Scientific Discovery over 20x Faster Than Existing Methods

February 3, 2026
Autores: Emmett Bicker
cs.AI

Resumen

Presentamos a Aster, un agente de inteligencia artificial para el descubrimiento científico autónomo capaz de operar más de 20 veces más rápido que los marcos de trabajo existentes. Dada una tarea, un programa inicial y un script para evaluar el rendimiento del programa, Aster mejora el programa de forma iterativa, lo que a menudo conduce a nuevos rendimientos de vanguardia. La reducción significativa en el número de iteraciones requeridas para nuevos descubrimientos que ofrece Aster expande el dominio de los problemas tratables para incluir tareas con largas duraciones de evaluación, como las ejecuciones de entrenamiento de aprendizaje automático que duran varias horas. Aplicamos Aster a problemas en matemáticas, ingeniería de núcleos GPU, biología, neurociencia y entrenamiento de modelos de lenguaje. Más específicamente: el problema de superposición mínima de Erdos, la optimización del núcleo TriMul, un problema de eliminación de ruido en análisis de células individuales, el entrenamiento de un modelo de predicción de actividad neuronal para obtener buenos resultados en ZAPBench, y la NanoGPT Speedrun Competition. Aster obtiene resultados de vanguardia (SOTA) en cada tarea, excepto en ZAPBench, donde iguala el rendimiento de la mejor solución humana con menos de 1/190 parte del cómputo. Aster es accesible mediante una interfaz web y una API en asterlab.ai.
English
We introduce Aster, an AI agent for autonomous scientific discovery capable of operating over 20 times faster than existing frameworks. Given a task, an initial program, and a script to evaluate the performance of the program, Aster iteratively improves the program, often leading to new state-of-the-art performances. Aster's significant reduction in the number of iterations required for novel discovery expands the domain of tractable problems to include tasks with long evaluation durations, such as multi-hour machine learning training runs. We applied Aster to problems in mathematics, GPU kernel engineering, biology, neuroscience, and language model training. More specifically: the Erdos minimum overlap problem, optimizing the TriMul kernel, a single-cell analysis denoising problem, training a neural activity prediction model to perform well on ZAPBench, and the NanoGPT Speedrun Competition. Aster attains SOTA results in every task, except for ZAPBench, where it matches the performance of the best human solution with less than 1/190th of the compute. Aster is accessible via a web interface and API at asterlab.ai.
PDF11February 11, 2026