Aceleración de la Investigación Científica con Gemini: Estudios de Caso y Técnicas Comunes
Accelerating Scientific Research with Gemini: Case Studies and Common Techniques
February 3, 2026
Autores: David P. Woodruff, Vincent Cohen-Addad, Lalit Jain, Jieming Mao, Song Zuo, MohammadHossein Bateni, Simina Branzei, Michael P. Brenner, Lin Chen, Ying Feng, Lance Fortnow, Gang Fu, Ziyi Guan, Zahra Hadizadeh, Mohammad T. Hajiaghayi, Mahdi JafariRaviz, Adel Javanmard, Karthik C. S., Ken-ichi Kawarabayashi, Ravi Kumar, Silvio Lattanzi, Euiwoong Lee, Yi Li, Ioannis Panageas, Dimitris Paparas, Benjamin Przybocki, Bernardo Subercaseaux, Ola Svensson, Shayan Taherijam, Xuan Wu, Eylon Yogev, Morteza Zadimoghaddam, Samson Zhou, Vahab Mirrokni
cs.AI
Resumen
Los recientes avances en los modelos de lenguaje a gran escala (LLM) han abierto nuevas vías para acelerar la investigación científica. Si bien estos modelos son cada vez más capaces de ayudar en tareas rutinarias, su capacidad para contribuir al descubrimiento matemático novedoso y de nivel experto es menos conocida. Presentamos una colección de estudios de caso que demuestran cómo los investigadores han colaborado exitosamente con modelos avanzados de IA, específicamente los modelos basados en Gemini de Google (en particular, Gemini Deep Think y sus variantes avanzadas), para resolver problemas abiertos, refutar conjeturas y generar nuevas demostraciones en diversas áreas de la informática teórica, así como en otras áreas como la economía, la optimización y la física. A partir de estas experiencias, extraemos técnicas comunes para una colaboración efectiva entre humanos e IA en la investigación teórica, como el refinamiento iterativo, la descomposición de problemas y la transferencia de conocimiento interdisciplinario. Si bien la mayoría de nuestros resultados provienen de esta metodología interactiva y conversacional, también destacamos casos específicos que van más allá de las interfaces de chat estándar. Estos incluyen desplegar el modelo como un revisor adversario riguroso para detectar fallos sutiles en demostraciones existentes, e integrarlo en un bucle "neuro-simbólico" que escribe y ejecuta código de forma autónoma para verificar derivaciones complejas. En conjunto, estos ejemplos subrayan el potencial de la IA no solo como una herramienta de automatización, sino como un socio versátil y genuino en el proceso creativo del descubrimiento científico.
English
Recent advances in large language models (LLMs) have opened new avenues for accelerating scientific research. While models are increasingly capable of assisting with routine tasks, their ability to contribute to novel, expert-level mathematical discovery is less understood. We present a collection of case studies demonstrating how researchers have successfully collaborated with advanced AI models, specifically Google's Gemini-based models (in particular Gemini Deep Think and its advanced variants), to solve open problems, refute conjectures, and generate new proofs across diverse areas in theoretical computer science, as well as other areas such as economics, optimization, and physics. Based on these experiences, we extract common techniques for effective human-AI collaboration in theoretical research, such as iterative refinement, problem decomposition, and cross-disciplinary knowledge transfer. While the majority of our results stem from this interactive, conversational methodology, we also highlight specific instances that push beyond standard chat interfaces. These include deploying the model as a rigorous adversarial reviewer to detect subtle flaws in existing proofs, and embedding it within a "neuro-symbolic" loop that autonomously writes and executes code to verify complex derivations. Together, these examples highlight the potential of AI not just as a tool for automation, but as a versatile, genuine partner in the creative process of scientific discovery.