Computer Sintetici su Larga Scala per la Simulazione di Produttività a Lungo Termine
Synthetic Computers at Scale for Long-Horizon Productivity Simulation
April 30, 2026
Autori: Tao Ge, Baolin Peng, Hao Cheng, Jianfeng Gao
cs.AI
Abstract
Il lavoro produttivo realistico a lungo termine è fortemente condizionato da ambienti informatici specifici dell'utente, dove gran parte del contesto lavorativo viene memorizzato e organizzato attraverso strutture di directory e artefatti ricchi di contenuto. Per scalare la creazione di dati sintetici per tali scenari produttivi, introduciamo Synthetic Computers at Scale, una metodologia scalabile per creare tali ambienti con gerarchie di cartelle realistiche e artefatti ricchi di contenuto (ad esempio documenti, fogli di calcolo e presentazioni). Condizionati da ciascun computer sintetico, eseguiamo simulazioni a lungo termine: un agente crea obiettivi produttivi specifici per l'utente del computer che richiedono più deliverable professionali e circa un mese di lavoro umano; un altro agente agisce quindi come quell'utente e continua a lavorare attraverso il computer - ad esempio navigando nel filesystem per il grounding, coordinando con collaboratori simulati e producendo artefatti professionali - fino al completamento di questi obiettivi.
In esperimenti preliminari, abbiamo creato 1.000 computer sintetici e eseguito simulazioni a lungo termine su di essi; ogni esecuzione richiede oltre 8 ore di runtime dell'agente e si estende in media per più di 2.000 turni. Queste simulazioni producono ricchi segnali di apprendimento esperienziale, la cui efficacia è validata da miglioramenti significativi nelle prestazioni degli agenti sia in valutazioni produttive in-dominio che out-of-domain. Considerando che le persona sono abbondanti a scala miliardaria, questa metodologia può in linea di principio scalare a milioni o addirittura miliardi di mondi utente sintetici con sufficiente potenza di calcolo, consentendo una copertura più ampia di professioni, ruoli, contesti, ambienti e esigenze produttive diverse. Sosteniamo che la creazione scalabile di computer sintetici, insieme a simulazioni su larga scala, sia estremamente promettente come substrato fondamentale per l'automiglioramento degli agenti e l'apprendimento per rinforzo agentico in scenari produttivi a lungo termine.
English
Realistic long-horizon productivity work is strongly conditioned on user-specific computer environments, where much of the work context is stored and organized through directory structures and content-rich artifacts. To scale synthetic data creation for such productivity scenarios, we introduce Synthetic Computers at Scale, a scalable methodology for creating such environments with realistic folder hierarchies and content-rich artifacts (e.g., documents, spreadsheets, and presentations). Conditioned on each synthetic computer, we run long-horizon simulations: one agent creates productivity objectives that are specific to the computer's user and require multiple professional deliverables and about a month of human work; another agent then acts as that user and keeps working across the computer -- for example, navigating the filesystem for grounding, coordinating with simulated collaborators, and producing professional artifacts -- until these objectives are completed.
In preliminary experiments, we create 1,000 synthetic computers and run long-horizon simulations on them; each run requires over 8 hours of agent runtime and spans more than 2,000 turns on average. These simulations produce rich experiential learning signals, whose effectiveness is validated by significant improvements in agent performance on both in-domain and out-of-domain productivity evaluations. Given that personas are abundant at billion scale, this methodology can in principle scale to millions or even billions of synthetic user worlds with sufficient compute, enabling broader coverage of diverse professions, roles, contexts, environments, and productivity needs. We argue that scalable synthetic computer creation, together with at-scale simulations, is highly promising as a foundational substrate for agent self-improvement and agentic reinforcement learning in long-horizon productivity scenarios.