ChatPaper.aiChatPaper

Infini-gram mini: Exakte n-Gramm-Suche im Internetmaßstab mit FM-Index

Infini-gram mini: Exact n-gram Search at the Internet Scale with FM-Index

June 13, 2025
papers.authors: Hao Xu, Jiacheng Liu, Yejin Choi, Noah A. Smith, Hannaneh Hajishirzi
cs.AI

papers.abstract

Sprachmodelle werden hauptsächlich auf massiven Textdaten aus dem Internet trainiert, und es wird zunehmend wichtig, diese Datenquelle zu verstehen. Exakte-Treffer-Suchmaschinen ermöglichen die Suche in großen Textkorpora – das Zählen von Zeichenkettenvorkommen und das Abrufen der umschließenden Dokumente – doch der hohe Speicheraufwand behindert ihre Anwendung auf Internet-große Datenmengen. Wir präsentieren Infini-gram mini, ein effizientes und skalierbares System, das Petabyte-große Textkorpora durchsuchbar machen kann. Basierend auf der FM-Index-Datenstruktur (Ferragina und Manzini, 2000), die gleichzeitig Text indiziert und komprimiert, erstellt unser System Indizes mit einer Größe von nur 44 % des Korpus. Infini-gram mini verbessert die beste bestehende Implementierung des FM-Index erheblich in Bezug auf die Indizierungsgeschwindigkeit (18-fach) und den Speicherbedarf sowohl während der Indizierung (3,2-fache Reduktion) als auch während der Abfrage (auf einen vernachlässigbaren Betrag reduziert). Wir indizieren 46 TB Internet-Text in 50 Tagen mit einem einzigen 128-Core-CPU-Knoten (oder 19 Stunden bei Verwendung von 75 solcher Knoten). Wir zeigen einen wichtigen Anwendungsfall von Infini-gram mini in einer groß angelegten Analyse von Benchmark-Kontamination. Wir stellen fest, dass mehrere Kern-LM-Evaluierungsbenchmarks in Internet-Crawls stark kontaminiert sind (bis zu 40 % in SQuAD), was zu einer Überschätzung der Fähigkeiten von Sprachmodellen führen könnte, wenn sie auf solchen Daten trainiert werden. Wir hosten ein Benchmark-Kontaminationsbulletin, um die Kontaminationsrate vieler Kern- und Community-beigetragener Benchmarks zu teilen. Wir stellen auch eine Web-Oberfläche und einen API-Endpunkt zur Verfügung, um allgemeine Suchanfragen auf Infini-gram mini-Indizes zu bedienen.
English
Language models are trained mainly on massive text data from the Internet, and it becomes increasingly important to understand this data source. Exact-match search engines enable searching in large text corpora -- counting string appearances and retrieving the enclosing documents -- yet the high storage overhead hinders their application on Internet-scale data. We present Infini-gram mini, an efficient and scalable system that can make petabyte-level text corpora searchable. Based on the FM-index data structure (Ferragina and Manzini, 2000), which simultaneously indexes and compresses text, our system creates indexes with size only 44% of the corpus. Infini-gram mini greatly improves upon the best existing implementation of FM-index in terms of indexing speed (18times) and memory use during both indexing (3.2times reduction) and querying (down to a negligible amount). We index 46TB of Internet text in 50 days with a single 128-core CPU node (or 19 hours if using 75 such nodes). We show one important use case of Infini-gram mini in a large-scale analysis of benchmark contamination. We find several core LM evaluation benchmarks to be heavily contaminated in Internet crawls (up to 40% in SQuAD), which could lead to overestimating the capabilities of language models if trained on such data. We host a benchmark contamination bulletin to share the contamination rate of many core and community-contributed benchmarks. We also release a web interface and an API endpoint to serve general search queries on Infini-gram mini indexes.
PDF32June 18, 2025