ChatPaper.aiChatPaper

Aster : Découverte scientifique autonome jusqu'à 20 fois plus rapide que les méthodes existantes

Aster: Autonomous Scientific Discovery over 20x Faster Than Existing Methods

February 3, 2026
papers.authors: Emmett Bicker
cs.AI

papers.abstract

Nous présentons Aster, un agent d'IA pour la découverte scientifique autonome capable d'opérer jusqu'à 20 fois plus vite que les cadres existants. Étant donné une tâche, un programme initial et un script pour évaluer la performance du programme, Aster améliore itérativement le programme, conduisant souvent à de nouvelles performances de pointe. La réduction significative du nombre d'itérations requises par Aster pour une découverte novatrice élargit le domaine des problèmes traitables pour inclure des tâches avec de longues durées d'évaluation, comme des entraînements de modèles d'apprentissage automatique de plusieurs heures. Nous avons appliqué Aster à des problèmes en mathématiques, en ingénierie de kernels GPU, en biologie, en neurosciences et en entraînement de modèles de langage. Plus spécifiquement : le problème du chevauchement minimum d'Erdős, l'optimisation du kernel TriMul, un problème de débruitage d'analyse unicellulaire, l'entraînement d'un modèle de prédiction d'activité neuronale pour de bonnes performances sur ZAPBench, et la NanoGPT Speedrun Competition. Aster obtient des résultats de pointe dans chaque tâche, à l'exception de ZAPBench, où il égalise la performance de la meilleure solution humaine avec moins d'1/190ème de la puissance de calcul. Aster est accessible via une interface web et une API sur asterlab.ai.
English
We introduce Aster, an AI agent for autonomous scientific discovery capable of operating over 20 times faster than existing frameworks. Given a task, an initial program, and a script to evaluate the performance of the program, Aster iteratively improves the program, often leading to new state-of-the-art performances. Aster's significant reduction in the number of iterations required for novel discovery expands the domain of tractable problems to include tasks with long evaluation durations, such as multi-hour machine learning training runs. We applied Aster to problems in mathematics, GPU kernel engineering, biology, neuroscience, and language model training. More specifically: the Erdos minimum overlap problem, optimizing the TriMul kernel, a single-cell analysis denoising problem, training a neural activity prediction model to perform well on ZAPBench, and the NanoGPT Speedrun Competition. Aster attains SOTA results in every task, except for ZAPBench, where it matches the performance of the best human solution with less than 1/190th of the compute. Aster is accessible via a web interface and API at asterlab.ai.
PDF11February 11, 2026