ChatPaper.aiChatPaper

Het verkennen van het latente vermogen van LLM's voor tekstgeneratie in één stap

Exploring the Latent Capacity of LLMs for One-Step Text Generation

May 27, 2025
Auteurs: Gleb Mezentsev, Ivan Oseledets
cs.AI

Samenvatting

Een recente studie toonde aan dat grote taalmodelen (LLM’s) verrassend lange teksten - tot duizenden tokens - kunnen reconstrueren via autoregressieve generatie vanuit slechts één speciaal getrainde invoerembedding. In dit werk onderzoeken we of een dergelijke reconstructie mogelijk is zonder autoregressie. We tonen aan dat bevroren LLM’s honderden nauwkeurige tokens kunnen genereren in slechts één voorwaartse doorloop, wanneer ze worden voorzien van slechts twee geleerde embeddings. Dit onthult een verrassende en onderbelichte capaciteit van LLM’s: multi-token generatie zonder iteratieve decodering. We onderzoeken het gedrag van deze embeddings en geven inzicht in het type informatie dat ze coderen. We tonen ook empirisch aan dat hoewel deze representaties niet uniek zijn voor een gegeven tekst, ze verbonden en lokale regio’s vormen in de embeddingruimte - een eigenschap die het potentieel suggereert van het leren van een toegewijde encoder in die ruimte.
English
A recent study showed that large language models (LLMs) can reconstruct surprisingly long texts - up to thousands of tokens - via autoregressive generation from just one specially trained input embedding. In this work, we explore whether such reconstruction is possible without autoregression. We show that frozen LLMs can generate hundreds of accurate tokens in just one forward pass, when provided with only two learned embeddings. This reveals a surprising and underexplored capability of LLMs - multi-token generation without iterative decoding. We investigate the behaviour of these embeddings and provide insight into the type of information they encode. We also empirically show that although these representations are not unique for a given text, they form connected and local regions in embedding space - a property that suggests the potential of learning a dedicated encoder into that space.
PDF616May 28, 2025