Aster: Autonome wissenschaftliche Entdeckung über 20-mal schneller als bestehende Methoden
Aster: Autonomous Scientific Discovery over 20x Faster Than Existing Methods
February 3, 2026
papers.authors: Emmett Bicker
cs.AI
papers.abstract
Wir stellen Aster vor, einen KI-Agenten für autonome wissenschaftliche Entdeckungen, der mehr als 20-mal schneller arbeiten kann als bestehende Frameworks. Bei einer gegebenen Aufgabe, einem initialen Programm und einem Skript zur Bewertung der Leistung des Programms verbessert Aster das Programm iterativ und erreicht häufig neue State-of-the-Art-Leistungen. Die signifikante Reduzierung der für neue Entdeckungen benötigten Iterationen erweitert den Bereich der handhabbaren Probleme auf Aufgaben mit langen Bewertungsdauern, wie etwa mehrstündige Machine-Learning-Trainingsläufe.
Wir haben Aster auf Probleme in den Bereichen Mathematik, GPU-Kernel-Engineering, Biologie, Neurowissenschaften und Sprachmodell-Training angewendet. Konkret: das Erdős-Minimum-Overlap-Problem, die Optimierung des TriMul-Kernels, ein Rauschunterdrückungsproblem bei der Einzelzellanalyse, das Training eines neuronalen Aktivitätsvorhersagemodells für gute Leistungen im ZAPBench und den NanoGPT-Speedrun-Wettbewerb. Aster erzielt in jeder Aufgabe State-of-the-Art-Ergebnisse, mit Ausnahme von ZAPBench, wo es die Leistung der besten menschlichen Lösung mit weniger als 1/190 der Rechenleistung erreicht.
Aster ist über eine Web-Oberfläche und eine API unter asterlab.ai zugänglich.
English
We introduce Aster, an AI agent for autonomous scientific discovery capable of operating over 20 times faster than existing frameworks. Given a task, an initial program, and a script to evaluate the performance of the program, Aster iteratively improves the program, often leading to new state-of-the-art performances. Aster's significant reduction in the number of iterations required for novel discovery expands the domain of tractable problems to include tasks with long evaluation durations, such as multi-hour machine learning training runs.
We applied Aster to problems in mathematics, GPU kernel engineering, biology, neuroscience, and language model training. More specifically: the Erdos minimum overlap problem, optimizing the TriMul kernel, a single-cell analysis denoising problem, training a neural activity prediction model to perform well on ZAPBench, and the NanoGPT Speedrun Competition. Aster attains SOTA results in every task, except for ZAPBench, where it matches the performance of the best human solution with less than 1/190th of the compute.
Aster is accessible via a web interface and API at asterlab.ai.