Descubrimiento Científico Eficaz y Fundamentado mediante Optimización Bayesiana: Un Tutorial
Efficient and Principled Scientific Discovery through Bayesian Optimization: A Tutorial
April 1, 2026
Autores: Zhongwei Yu, Rasul Tutunov, Alexandre Max Maraval, Zikai Xie, Zhenzhi Tan, Jiankang Wang, Zijing Li, Liangliang Xu, Qi Yang, Jun Jiang, Sanzhong Luo, Zhenxiao Guo, Haitham Bou-Ammar, Jun Wang
cs.AI
Resumen
El descubrimiento científico tradicional se basa en un ciclo iterativo de hipótesis-experimento-refinamiento que ha impulsado el progreso durante siglos, pero su implementación intuitiva y ad hoc a menudo desperdicia recursos, produce diseños ineficientes y pasa por alto conocimientos críticos. Este tutorial presenta la Optimización Bayesiana (OB), un marco probabilístico fundamentado que formaliza y automatiza este ciclo científico central. La OB utiliza modelos sustitutos (por ejemplo, procesos gaussianos) para modelar observaciones empíricas como hipótesis evolutivas, y funciones de adquisición para guiar la selección de experimentos, equilibrando la explotación del conocimiento conocido y la exploración de dominios inexplorados para eliminar conjeturas y la prueba y error manual. Primero enmarcamos el descubrimiento científico como un problema de optimización, luego desglosamos los componentes centrales de la OB, los flujos de trabajo integrales y su eficacia en el mundo real mediante estudios de casos en catálisis, ciencia de materiales, síntesis orgánica y descubrimiento de moléculas. También cubrimos extensiones técnicas críticas para aplicaciones científicas, incluida la experimentación por lotes, la heterocedasticidad, la optimización contextual y la integración con el humano en el ciclo. Diseñado para una audiencia amplia, este tutorial conecta los avances de la IA en OB con aplicaciones prácticas en ciencias naturales, ofreciendo contenido escalonado para capacitar a investigadores interdisciplinarios a diseñar experimentos más eficientes y acelerar el descubrimiento científico fundamentado.
English
Traditional scientific discovery relies on an iterative hypothesise-experiment-refine cycle that has driven progress for centuries, but its intuitive, ad-hoc implementation often wastes resources, yields inefficient designs, and misses critical insights. This tutorial presents Bayesian Optimisation (BO), a principled probability-driven framework that formalises and automates this core scientific cycle. BO uses surrogate models (e.g., Gaussian processes) to model empirical observations as evolving hypotheses, and acquisition functions to guide experiment selection, balancing exploitation of known knowledge and exploration of uncharted domains to eliminate guesswork and manual trial-and-error. We first frame scientific discovery as an optimisation problem, then unpack BO's core components, end-to-end workflows, and real-world efficacy via case studies in catalysis, materials science, organic synthesis, and molecule discovery. We also cover critical technical extensions for scientific applications, including batched experimentation, heteroscedasticity, contextual optimisation, and human-in-the-loop integration. Tailored for a broad audience, this tutorial bridges AI advances in BO with practical natural science applications, offering tiered content to empower cross-disciplinary researchers to design more efficient experiments and accelerate principled scientific discovery.