Aster: 既存手法の20倍以上の速度で実現する自律的科学発見
Aster: Autonomous Scientific Discovery over 20x Faster Than Existing Methods
February 3, 2026
著者: Emmett Bicker
cs.AI
要旨
自律的な科学発見を実現するAIエージェント「Aster」を紹介する。Asterは既存のフレームワークよりも最大20倍高速に動作し、タスクと初期プログラム、プログラムのパフォーマンス評価スクリプトが与えられると、反復的にプログラムを改善し、多くの場合で新たなstate-of-the-art性能を達成する。Asterは新規発見に必要な反復回数を大幅に削減することで、数時間に及ぶ機械学習トレーニングなど評価に長時間を要するタスクを含む、処理可能な問題領域を拡大する。
Asterを数学、GPUカーネルエンジニアリング、生物学、神経科学、言語モデルトレーニングの各問題に適用した。具体的には、エルデーシュの最小重複問題、TriMulカーネルの最適化、単一細胞解析のノイズ除去問題、ZAPBenchで高性能を発揮する神経活動予測モデルのトレーニング、NanoGPTスピードラン競技である。AsterはZAPBenchを除く全タスクでSOTA結果を達成し、ZAPBenchでは最高の人間の解法と同等の性能を、計算量を190分の1未満に抑えて実現した。
AsterはウェブインターフェースとAPIを通じてasterlab.aiで利用可能である。
English
We introduce Aster, an AI agent for autonomous scientific discovery capable of operating over 20 times faster than existing frameworks. Given a task, an initial program, and a script to evaluate the performance of the program, Aster iteratively improves the program, often leading to new state-of-the-art performances. Aster's significant reduction in the number of iterations required for novel discovery expands the domain of tractable problems to include tasks with long evaluation durations, such as multi-hour machine learning training runs.
We applied Aster to problems in mathematics, GPU kernel engineering, biology, neuroscience, and language model training. More specifically: the Erdos minimum overlap problem, optimizing the TriMul kernel, a single-cell analysis denoising problem, training a neural activity prediction model to perform well on ZAPBench, and the NanoGPT Speedrun Competition. Aster attains SOTA results in every task, except for ZAPBench, where it matches the performance of the best human solution with less than 1/190th of the compute.
Aster is accessible via a web interface and API at asterlab.ai.