TTCS: Testzeit-Curriculum-Synthese zur Selbstevolution
TTCS: Test-Time Curriculum Synthesis for Self-Evolving
January 30, 2026
papers.authors: Chengyi Yang, Zhishang Xiang, Yunbo Tang, Zongpei Teng, Chengsong Huang, Fei Long, Yuhan Liu, Jinsong Su
cs.AI
papers.abstract
Test-Time Training bietet einen vielversprechenden Ansatz, um die Fähigkeit zum logischen Denken großer Sprachmodelle (LLMs) zu verbessern, indem das Modell ausschließlich anhand der Testfragen angepasst wird. Bestehende Methoden stoßen jedoch bei schwierigen Denkaufgaben aus zwei Gründen an Grenzen: Rohe Testfragen sind oft zu schwierig, um hochwertige Pseudo-Labels zu liefern, und die begrenzte Größe von Testdatensätzen macht kontinuierliche Online-Aktualisierungen anfällig für Instabilität. Um diese Einschränkungen zu überwinden, schlagen wir TTCS vor, einen ko-evolvierenden Test-Time-Training-Rahmen. Konkret initialisiert TTCS zwei Strategien aus demselben vortrainierten Modell: einen Frage-Synthesizer und einen Reasoning-Solver. Diese Strategien entwickeln sich durch iterative Optimierung weiter: Der Synthesizer erzeugt fortschreitend anspruchsvollere Fragevarianten, die auf den Testfragen basieren, und erstellt so einen strukturierten Lehrplan, der auf die aktuellen Fähigkeiten des Solvers zugeschnitten ist. Der Solver aktualisiert sich selbst unter Verwendung von Self-Consistency-Belohnungen, die aus mehrfach abgetasteten Antworten auf sowohl ursprüngliche Test- als auch synthetische Fragen berechnet werden. Entscheidend ist, dass das Feedback des Solvers den Synthesizer dazu anleitet, Fragen zu generieren, die mit den aktuellen Fähigkeiten des Modells übereinstimmen, und die generierten Fragevarianten stabilisieren wiederum das Test-Time-Training des Solvers. Experimente zeigen, dass TTCS die Reasoning-Fähigkeit auf anspruchsvollen mathematischen Benchmarks konsistent stärkt und auf allgemeine Domänen-Aufgaben über verschiedene LLM-Backbones hinweg überträgt, was einen skalierbaren Weg für die dynamische Konstruktion von Test-Time-Lehrplänen für selbst-evolvierende Systeme aufzeigt. Unser Code und Implementierungsdetails sind unter https://github.com/XMUDeepLIT/TTCS verfügbar.
English
Test-Time Training offers a promising way to improve the reasoning ability of large language models (LLMs) by adapting the model using only the test questions. However, existing methods struggle with difficult reasoning problems for two reasons: raw test questions are often too difficult to yield high-quality pseudo-labels, and the limited size of test sets makes continuous online updates prone to instability. To address these limitations, we propose TTCS, a co-evolving test-time training framework. Specifically, TTCS initializes two policies from the same pretrained model: a question synthesizer and a reasoning solver. These policies evolve through iterative optimization: the synthesizer generates progressively challenging question variants conditioned on the test questions, creating a structured curriculum tailored to the solver's current capability, while the solver updates itself using self-consistency rewards computed from multiple sampled responses on both original test and synthetic questions. Crucially, the solver's feedback guides the synthesizer to generate questions aligned with the model's current capability, and the generated question variants in turn stabilize the solver's test-time training. Experiments show that TTCS consistently strengthens the reasoning ability on challenging mathematical benchmarks and transfers to general-domain tasks across different LLM backbones, highlighting a scalable path towards dynamically constructing test-time curricula for self-evolving. Our code and implementation details are available at https://github.com/XMUDeepLIT/TTCS.