ChatPaper.aiChatPaper

NanoKnow: Wie man weiß, was Ihr Sprachmodell weiß

NanoKnow: How to Know What Your Language Model Knows

February 23, 2026
papers.authors: Lingwei Gu, Nour Jedidi, Jimmy Lin
cs.AI

papers.abstract

Wie wissen große Sprachmodelle (LLMs), was sie wissen? Die Beantwortung dieser Frage war bisher schwierig, da die Vor-Trainingsdaten oft eine "Blackbox" darstellen – unbekannt oder unzugänglich. Die kürzliche Veröffentlichung von nanochat – einer Familie kleiner LLMs mit vollständig offenen Vor-Trainingsdaten – schafft hier Abhilfe, da sie einen transparenten Einblick bietet, woher das parametrische Wissen eines Modells stammt. Um zu verstehen, wie Wissen in LLMs kodiert wird, veröffentlichen wir NanoKnow, einen Benchmark-Datensatz, der Fragen aus Natural Questions und SQuAD anhand der Frage aufteilt, ob ihre Antworten im Vor-Trainingskorpus von nanochat enthalten sind. Mithilfe dieser Aufteilung können wir nun die Wissensquellen, auf die sich LLMs bei der Erzeugung einer Ausgabe stützen, klar voneinander trennen. Um den Nutzen von NanoKnow zu demonstrieren, führen wir Experimente mit acht nanochat-Checkpoints durch. Unsere Ergebnisse zeigen: (1) Die Closed-Book-Genauigkeit wird stark von der Häufigkeit der Antworten in den Vor-Trainingsdaten beeinflusst, (2) die Bereitstellung externer Evidenz kann diese Häufigkeitsabhängigkeit abmildern, (3) selbst bei externer Evidenz sind Modelle genauer, wenn die Antworten während des Vor-Trainings gesehen wurden, was zeigt, dass parametrisches und externes Wissen sich ergänzen, und (4) nicht-relevante Informationen sind schädlich, wobei die Genauigkeit sowohl abhängig von der Position als auch von der Anzahl nicht-relevanter Kontexte abnimmt. Wir veröffentlichen alle NanoKnow-Artefakte unter https://github.com/castorini/NanoKnow.
English
How do large language models (LLMs) know what they know? Answering this question has been difficult because pre-training data is often a "black box" -- unknown or inaccessible. The recent release of nanochat -- a family of small LLMs with fully open pre-training data -- addresses this as it provides a transparent view into where a model's parametric knowledge comes from. Towards the goal of understanding how knowledge is encoded by LLMs, we release NanoKnow, a benchmark dataset that partitions questions from Natural Questions and SQuAD into splits based on whether their answers are present in nanochat's pre-training corpus. Using these splits, we can now properly disentangle the sources of knowledge that LLMs rely on when producing an output. To demonstrate NanoKnow's utility, we conduct experiments using eight nanochat checkpoints. Our findings show: (1) closed-book accuracy is strongly influenced by answer frequency in the pre-training data, (2) providing external evidence can mitigate this frequency dependence, (3) even with external evidence, models are more accurate when answers were seen during pre-training, demonstrating that parametric and external knowledge are complementary, and (4) non-relevant information is harmful, with accuracy decreasing based on both the position and the number of non-relevant contexts. We release all NanoKnow artifacts at https://github.com/castorini/NanoKnow.
PDF42February 27, 2026