ChatPaper.aiChatPaper

Aster: Descoberta Científica Autônoma com Velocidade 20 Vezes Maior que os Métodos Existentes

Aster: Autonomous Scientific Discovery over 20x Faster Than Existing Methods

February 3, 2026
Autores: Emmett Bicker
cs.AI

Resumo

Apresentamos o Aster, um agente de IA para descoberta científica autónoma capaz de operar a uma velocidade mais de 20 vezes superior à das estruturas existentes. Dada uma tarefa, um programa inicial e um script para avaliar o desempenho do programa, o Aster melhora iterativamente o programa, frequentemente alcançando novos desempenhos de ponta. A redução significativa no número de iterações necessárias para novas descobertas, proporcionada pelo Aster, expande o domínio dos problemas tratáveis para incluir tarefas com durações de avaliação longas, como execuções de treino de aprendizagem automática com várias horas. Aplicámos o Aster a problemas em matemática, engenharia de *kernels* para GPU, biologia, neurociência e treino de modelos de linguagem. Mais especificamente: o problema do mínimo sobreposição de Erdős, a otimização do *kernel* TriMul, um problema de remoção de ruído em análise de célula única, o treino de um modelo de previsão de atividade neural para obter bons resultados no ZAPBench e a NanoGPT Speedrun Competition. O Aster atinge resultados de ponta em todas as tarefas, exceto no ZAPBench, onde iguala o desempenho da melhor solução humana utilizando menos de 1/190 do poder computacional. O Aster está acessível através de uma interface *web* e de uma API em asterlab.ai.
English
We introduce Aster, an AI agent for autonomous scientific discovery capable of operating over 20 times faster than existing frameworks. Given a task, an initial program, and a script to evaluate the performance of the program, Aster iteratively improves the program, often leading to new state-of-the-art performances. Aster's significant reduction in the number of iterations required for novel discovery expands the domain of tractable problems to include tasks with long evaluation durations, such as multi-hour machine learning training runs. We applied Aster to problems in mathematics, GPU kernel engineering, biology, neuroscience, and language model training. More specifically: the Erdos minimum overlap problem, optimizing the TriMul kernel, a single-cell analysis denoising problem, training a neural activity prediction model to perform well on ZAPBench, and the NanoGPT Speedrun Competition. Aster attains SOTA results in every task, except for ZAPBench, where it matches the performance of the best human solution with less than 1/190th of the compute. Aster is accessible via a web interface and API at asterlab.ai.
PDF21March 31, 2026