ChatPaper.aiChatPaper

NanoKnow : Comment savoir ce que votre modèle de langage sait

NanoKnow: How to Know What Your Language Model Knows

February 23, 2026
papers.authors: Lingwei Gu, Nour Jedidi, Jimmy Lin
cs.AI

papers.abstract

Comment les grands modèles de langage (LLM) savent-ils ce qu'ils savent ? Répondre à cette question s'est avéré difficile car les données de pré-entraînement constituent souvent une "boîte noire" – inconnues ou inaccessibles. La récente publication de nanochat – une famille de petits LLM dont les données de pré-entraînement sont entièrement ouvertes – résout ce problème en offrant une vision transparente de l'origine des connaissances paramétriques d'un modèle. Dans l'objectif de comprendre comment les connaissances sont encodées par les LLM, nous publions NanoKnow, un jeu de données de référence qui répartit les questions de Natural Questions et de SQuAD en sous-ensembles selon que leurs réponses sont présentes ou non dans le corpus de pré-entraînement de nanochat. En utilisant ces sous-ensembles, nous pouvons désormais démêler correctement les sources de connaissances sur lesquelles les LLM s'appuient pour produire une réponse. Pour démontrer l'utilité de NanoKnow, nous menons des expériences utilisant huit points de contrôle de nanochat. Nos résultats montrent que : (1) la précision en mode "livre fermé" est fortement influencée par la fréquence des réponses dans les données de pré-entraînement, (2) fournir des preuves externes peut atténuer cette dépendance à la fréquence, (3) même avec des preuves externes, les modèles sont plus précis lorsque les réponses ont été vues pendant le pré-entraînement, démontrant que les connaissances paramétriques et externes sont complémentaires, et (4) les informations non pertinentes sont nuisibles, la précision diminuant en fonction à la fois de la position et du nombre de contextes non pertinents. Nous publions tous les artefacts de NanoKnow sur https://github.com/castorini/NanoKnow.
English
How do large language models (LLMs) know what they know? Answering this question has been difficult because pre-training data is often a "black box" -- unknown or inaccessible. The recent release of nanochat -- a family of small LLMs with fully open pre-training data -- addresses this as it provides a transparent view into where a model's parametric knowledge comes from. Towards the goal of understanding how knowledge is encoded by LLMs, we release NanoKnow, a benchmark dataset that partitions questions from Natural Questions and SQuAD into splits based on whether their answers are present in nanochat's pre-training corpus. Using these splits, we can now properly disentangle the sources of knowledge that LLMs rely on when producing an output. To demonstrate NanoKnow's utility, we conduct experiments using eight nanochat checkpoints. Our findings show: (1) closed-book accuracy is strongly influenced by answer frequency in the pre-training data, (2) providing external evidence can mitigate this frequency dependence, (3) even with external evidence, models are more accurate when answers were seen during pre-training, demonstrating that parametric and external knowledge are complementary, and (4) non-relevant information is harmful, with accuracy decreasing based on both the position and the number of non-relevant contexts. We release all NanoKnow artifacts at https://github.com/castorini/NanoKnow.
PDF42February 27, 2026