Aster: Scoperta Scientifica Autonoma 20 Volte Più Veloce Rispetto ai Metodi Esistenti
Aster: Autonomous Scientific Discovery over 20x Faster Than Existing Methods
February 3, 2026
Autori: Emmett Bicker
cs.AI
Abstract
Introduciamo Aster, un agente di intelligenza artificiale per la scoperta scientifica autonoma in grado di operare a una velocità oltre 20 volte superiore rispetto ai framework esistenti. Dato un compito, un programma iniziale e uno script per valutare le prestazioni del programma, Aster migliora iterativamente il programma, raggiungendo spesso nuove prestazioni all'avanguardia. La significativa riduzione del numero di iterazioni necessarie per una scoperta innovativa operata da Aster amplia il dominio dei problemi trattabili, includendo compiti con durate di valutazione lunghe, come le sessioni di addestramento di machine learning della durata di diverse ore.
Abbiamo applicato Aster a problemi di matematica, ingegneria di kernel GPU, biologia, neuroscienze e addestramento di modelli linguistici. Nello specifico: il problema di Erdős della sovrapposizione minima, l'ottimizzazione del kernel TriMul, un problema di denoising nell'analisi di cellule singole, l'addestramento di un modello di previsione dell'attività neurale per ottenere buone prestazioni su ZAPBench e la NanoGPT Speedrun Competition. Aster ottiene risultati all'avanguardia in ogni compito, ad eccezione di ZAPBench, dove eguaglia le prestazioni della miglior soluzione umana utilizzando meno di 1/190esimo della potenza di calcolo.
Aster è accessibile tramite un'interfaccia web e un'API all'indirizzo asterlab.ai.
English
We introduce Aster, an AI agent for autonomous scientific discovery capable of operating over 20 times faster than existing frameworks. Given a task, an initial program, and a script to evaluate the performance of the program, Aster iteratively improves the program, often leading to new state-of-the-art performances. Aster's significant reduction in the number of iterations required for novel discovery expands the domain of tractable problems to include tasks with long evaluation durations, such as multi-hour machine learning training runs.
We applied Aster to problems in mathematics, GPU kernel engineering, biology, neuroscience, and language model training. More specifically: the Erdos minimum overlap problem, optimizing the TriMul kernel, a single-cell analysis denoising problem, training a neural activity prediction model to perform well on ZAPBench, and the NanoGPT Speedrun Competition. Aster attains SOTA results in every task, except for ZAPBench, where it matches the performance of the best human solution with less than 1/190th of the compute.
Aster is accessible via a web interface and API at asterlab.ai.