Een Zilveren Kogel of een Compromis voor Volledige Aandacht? Een Uitgebreide Studie van Gist Token-gebaseerde Contextcompressie.
A Silver Bullet or a Compromise for Full Attention? A Comprehensive Study of Gist Token-based Context Compression
December 23, 2024
Auteurs: Chenlong Deng, Zhisong Zhang, Kelong Mao, Shuaiyi Li, Xinting Huang, Dong Yu, Zhicheng Dou
cs.AI
Samenvatting
In dit werk bieden we een grondig onderzoek naar gist-gebaseerde contextcompressiemethoden om de verwerking van lange contexten in grote taalmodellen te verbeteren. We richten ons op twee belangrijke vragen: (1) Hoe goed kunnen deze methoden volledige aandachtsmodellen vervangen? en (2) Welke potentiële foutpatronen ontstaan door compressie? Door uitgebreide experimenten tonen we aan dat gist-gebaseerde compressie bij taken zoals ophalingsversterkte generatie en vraag-antwoord over lange documenten bijna verliesloze prestaties kan behalen, maar uitdagingen ondervindt bij taken zoals synthetische herinnering. Bovendien identificeren we drie belangrijke foutpatronen: verloren bij de grens, verloren bij verrassing en onderweg verloren. Om deze problemen te verminderen, stellen we twee effectieve strategieën voor: fijnmazige auto-encodering, die de reconstructie van originele tokeninformatie verbetert, en segmentgewijze schatting van tokenbelang, die de optimalisatie aanpast op basis van tokenafhankelijkheden. Ons werk biedt waardevolle inzichten in het begrip van gist-token-gebaseerde contextcompressie en biedt praktische strategieën voor het verbeteren van compressiemogelijkheden.
English
In this work, we provide a thorough investigation of gist-based context
compression methods to improve long-context processing in large language
models. We focus on two key questions: (1) How well can these methods replace
full attention models? and (2) What potential failure patterns arise due to
compression? Through extensive experiments, we show that while gist-based
compression can achieve near-lossless performance on tasks like
retrieval-augmented generation and long-document QA, it faces challenges in
tasks like synthetic recall. Furthermore, we identify three key failure
patterns: lost by the boundary, lost if surprise, and lost along the way. To
mitigate these issues, we propose two effective strategies: fine-grained
autoencoding, which enhances the reconstruction of original token information,
and segment-wise token importance estimation, which adjusts optimization based
on token dependencies. Our work provides valuable insights into the
understanding of gist token-based context compression and offers practical
strategies for improving compression capabilities.