ChatPaper.aiChatPaper

Эффективный и принципиальный научный поиск с помощью байесовской оптимизации: учебное руководство

Efficient and Principled Scientific Discovery through Bayesian Optimization: A Tutorial

April 1, 2026
Авторы: Zhongwei Yu, Rasul Tutunov, Alexandre Max Maraval, Zikai Xie, Zhenzhi Tan, Jiankang Wang, Zijing Li, Liangliang Xu, Qi Yang, Jun Jiang, Sanzhong Luo, Zhenxiao Guo, Haitham Bou-Ammar, Jun Wang
cs.AI

Аннотация

Традиционное научное открытие основывается на итерационном цикле «гипотеза-эксперимент-уточнение», который веками двигал прогресс, однако его интуитивная, ad-hoc реализация часто приводит к растрате ресурсов, неэффективным разработкам и упущению ключевых закономерностей. В данном руководстве представлена байесовская оптимизация (БО) — принципиальный вероятностный подход, формализующий и автоматизирующий этот фундаментальный научный цикл. БО использует суррогатные модели (например, гауссовские процессы) для представления эмпирических наблюдений в виде развивающихся гипотез и функции приобретения для выбора экспериментов, балансируя между использованием известных данных и исследованием неизученных областей, чтобы исключить догадки и ручной перебор. Мы сначала формулируем научное открытие как задачу оптимизации, затем детально разбираем ключевые компоненты БО, сквозные рабочие процессы и практическую эффективность на примерах из катализа, материаловедения, органического синтеза и открытия молекул. Также рассматриваются важные технические расширения для научных приложений, включая пакетные эксперименты, гетероскедастичность, контекстную оптимизацию и интеграцию человека в контур. Ориентированное на широкую аудиторию, это руководство связывает последние достижения в области ИИ в области БО с практическими приложениями в естественных науках, предлагая многоуровневый контент, позволяющий междисциплинарным исследователям проектировать более эффективные эксперименты и ускорять принципиально обоснованные научные открытия.
English
Traditional scientific discovery relies on an iterative hypothesise-experiment-refine cycle that has driven progress for centuries, but its intuitive, ad-hoc implementation often wastes resources, yields inefficient designs, and misses critical insights. This tutorial presents Bayesian Optimisation (BO), a principled probability-driven framework that formalises and automates this core scientific cycle. BO uses surrogate models (e.g., Gaussian processes) to model empirical observations as evolving hypotheses, and acquisition functions to guide experiment selection, balancing exploitation of known knowledge and exploration of uncharted domains to eliminate guesswork and manual trial-and-error. We first frame scientific discovery as an optimisation problem, then unpack BO's core components, end-to-end workflows, and real-world efficacy via case studies in catalysis, materials science, organic synthesis, and molecule discovery. We also cover critical technical extensions for scientific applications, including batched experimentation, heteroscedasticity, contextual optimisation, and human-in-the-loop integration. Tailored for a broad audience, this tutorial bridges AI advances in BO with practical natural science applications, offering tiered content to empower cross-disciplinary researchers to design more efficient experiments and accelerate principled scientific discovery.
PDF31April 4, 2026