Creatività Combinatoria: Una Nuova Frontiera nelle Capacità di Generalizzazione
Combinatorial Creativity: A New Frontier in Generalization Abilities
September 25, 2025
Autori: Samuel Schapiro, Sumuk Shashidhar, Alexi Gladstone, Jonah Black, Royce Moon, Dilek Hakkani-Tur, Lav R. Varshney
cs.AI
Abstract
I sistemi di intelligenza artificiale (IA), e in particolare i Modelli Linguistici di Grande Scala (LLM), sono sempre più impiegati per compiti creativi come la generazione di idee scientifiche, costituendo una forma di generalizzazione dai dati di addestramento non affrontata dai framework concettuali esistenti. Nonostante le somiglianze con la generalizzazione composizionale (CG), la creatività combinatoria (CC) è un'abilità aperta e illimitata. Invece di valutare l'accuratezza o la correttezza rispetto a obiettivi fissi, il che contraddirebbe la natura aperta della CC, proponiamo un framework teorico e un compito algoritmico per valutare gli output in base ai loro gradi di novità e utilità. Da qui, forniamo diversi contributi empirici significativi: (1) Otteniamo le prime intuizioni sul comportamento di scalabilità della creatività per gli LLM. (2) Scopriamo che, per budget computazionali fissi, esistono profondità e ampiezze ottimali del modello per l'abilità creativa. (3) Troviamo che il divario ideazione-esecuzione, per cui gli LLM eccellono nella generazione di idee scientifiche innovative ma faticano a garantirne la fattibilità pratica, può essere spiegato da un più fondamentale compromesso novità-utilità caratteristico degli algoritmi di creatività in generale. Importante, questo compromesso persiste anche su larga scala, mettendo in dubbio il potenziale creativo a lungo termine degli LLM nella loro forma attuale. Insieme, il nostro framework concettuale e i risultati empirici forniscono una base per comprendere e migliorare la creatività nei moderni modelli di IA, colmando il divario tra intelligenza umana e macchina.
English
Artificial intelligence (AI) systems, and Large Language Models (LLMs) in
particular, are increasingly employed for creative tasks like scientific idea
generation, constituting a form of generalization from training data
unaddressed by existing conceptual frameworks. Despite its similarities to
compositional generalization (CG), combinatorial creativity (CC) is an
open-ended ability. Instead of evaluating for accuracy or correctness against
fixed targets, which would contradict the open-ended nature of CC, we propose a
theoretical framework and algorithmic task for evaluating outputs by their
degrees of novelty and utility. From here, we make several important empirical
contributions: (1) We obtain the first insights into the scaling behavior of
creativity for LLMs. (2) We discover that, for fixed compute budgets, there
exist optimal model depths and widths for creative ability. (3) We find that
the ideation-execution gap, whereby LLMs excel at generating novel scientific
ideas but struggle to ensure their practical feasibility, may be explained by a
more fundamental novelty-utility tradeoff characteristic of creativity
algorithms in general. Importantly, this tradeoff remains persistent even at
scale, casting doubt on the long-term creative potential of LLMs in their
current form. Together, our conceptual framework and empirical findings provide
a foundation for understanding and improving creativity in modern AI models,
bridging the gap between human and machine intelligence.