ChatPaper.aiChatPaper

Creatività Combinatoria: Una Nuova Frontiera nelle Capacità di Generalizzazione

Combinatorial Creativity: A New Frontier in Generalization Abilities

September 25, 2025
Autori: Samuel Schapiro, Sumuk Shashidhar, Alexi Gladstone, Jonah Black, Royce Moon, Dilek Hakkani-Tur, Lav R. Varshney
cs.AI

Abstract

I sistemi di intelligenza artificiale (IA), e in particolare i Modelli Linguistici di Grande Scala (LLM), sono sempre più impiegati per compiti creativi come la generazione di idee scientifiche, costituendo una forma di generalizzazione dai dati di addestramento non affrontata dai framework concettuali esistenti. Nonostante le somiglianze con la generalizzazione composizionale (CG), la creatività combinatoria (CC) è un'abilità aperta e illimitata. Invece di valutare l'accuratezza o la correttezza rispetto a obiettivi fissi, il che contraddirebbe la natura aperta della CC, proponiamo un framework teorico e un compito algoritmico per valutare gli output in base ai loro gradi di novità e utilità. Da qui, forniamo diversi contributi empirici significativi: (1) Otteniamo le prime intuizioni sul comportamento di scalabilità della creatività per gli LLM. (2) Scopriamo che, per budget computazionali fissi, esistono profondità e ampiezze ottimali del modello per l'abilità creativa. (3) Troviamo che il divario ideazione-esecuzione, per cui gli LLM eccellono nella generazione di idee scientifiche innovative ma faticano a garantirne la fattibilità pratica, può essere spiegato da un più fondamentale compromesso novità-utilità caratteristico degli algoritmi di creatività in generale. Importante, questo compromesso persiste anche su larga scala, mettendo in dubbio il potenziale creativo a lungo termine degli LLM nella loro forma attuale. Insieme, il nostro framework concettuale e i risultati empirici forniscono una base per comprendere e migliorare la creatività nei moderni modelli di IA, colmando il divario tra intelligenza umana e macchina.
English
Artificial intelligence (AI) systems, and Large Language Models (LLMs) in particular, are increasingly employed for creative tasks like scientific idea generation, constituting a form of generalization from training data unaddressed by existing conceptual frameworks. Despite its similarities to compositional generalization (CG), combinatorial creativity (CC) is an open-ended ability. Instead of evaluating for accuracy or correctness against fixed targets, which would contradict the open-ended nature of CC, we propose a theoretical framework and algorithmic task for evaluating outputs by their degrees of novelty and utility. From here, we make several important empirical contributions: (1) We obtain the first insights into the scaling behavior of creativity for LLMs. (2) We discover that, for fixed compute budgets, there exist optimal model depths and widths for creative ability. (3) We find that the ideation-execution gap, whereby LLMs excel at generating novel scientific ideas but struggle to ensure their practical feasibility, may be explained by a more fundamental novelty-utility tradeoff characteristic of creativity algorithms in general. Importantly, this tradeoff remains persistent even at scale, casting doubt on the long-term creative potential of LLMs in their current form. Together, our conceptual framework and empirical findings provide a foundation for understanding and improving creativity in modern AI models, bridging the gap between human and machine intelligence.
PDF22September 30, 2025