Aster: 기존 방법보다 20배 이상 빠른 자율 과학 발견
Aster: Autonomous Scientific Discovery over 20x Faster Than Existing Methods
February 3, 2026
저자: Emmett Bicker
cs.AI
초록
우리는 기존 프레임워크보다 최대 20배 이상 빠른 속도로 운영 가능한 자율 과학 발견 AI 에이전트인 Aster를 소개합니다. 주어진 작업, 초기 프로그램, 그리고 프로그램 성능을 평가하는 스크립트를 바탕으로 Aster는 프로그램을 반복적으로 개선하며 종종 새로운 최첨단 성능을 달성합니다. Aster는 새로운 발견에 필요한 반복 횟수를 크게 줄여 평가 시간이 긴 문제(예: 수 시간이 소요되는 머신러닝 학습 실행)까지도 처리 가능한 영역으로 확장합니다.
우리는 Aster를 수학, GPU 커널 엔지니어링, 생물학, 신경과학, 언어 모델 학습 분야의 문제에 적용했습니다. 구체적으로는 에르되시 최소 중복 문제, TriMul 커널 최적화, 단일 세포 분석 노이즈 제거 문제, ZAPBench에서 우수한 성능을 보이는 신경 활동 예측 모델 학습, 그리고 NanoGPT 스피드런 경쟁을 다뤘습니다. Aster는 ZAPBench를 제외한 모든 작업에서 SOTA 성능을 달성했으며, ZAPBench에서는 최고의 인간 솔루션과 동등한 성능을 컴퓨팅 자원을 1/190 미만으로 사용하여 달성했습니다.
Aster는 asterlab.ai에서 웹 인터페이스와 API를 통해 이용할 수 있습니다.
English
We introduce Aster, an AI agent for autonomous scientific discovery capable of operating over 20 times faster than existing frameworks. Given a task, an initial program, and a script to evaluate the performance of the program, Aster iteratively improves the program, often leading to new state-of-the-art performances. Aster's significant reduction in the number of iterations required for novel discovery expands the domain of tractable problems to include tasks with long evaluation durations, such as multi-hour machine learning training runs.
We applied Aster to problems in mathematics, GPU kernel engineering, biology, neuroscience, and language model training. More specifically: the Erdos minimum overlap problem, optimizing the TriMul kernel, a single-cell analysis denoising problem, training a neural activity prediction model to perform well on ZAPBench, and the NanoGPT Speedrun Competition. Aster attains SOTA results in every task, except for ZAPBench, where it matches the performance of the best human solution with less than 1/190th of the compute.
Aster is accessible via a web interface and API at asterlab.ai.