ChatPaper.aiChatPaper

NanoKnow: Cómo Saber lo que Sabe tu Modelo de Lenguaje

NanoKnow: How to Know What Your Language Model Knows

February 23, 2026
Autores: Lingwei Gu, Nour Jedidi, Jimmy Lin
cs.AI

Resumen

¿Cómo saben los grandes modelos de lenguaje (LLMs) lo que saben? Responder a esta pregunta ha sido difícil porque los datos de preentrenamiento suelen ser una "caja negra" —desconocidos o inaccesibles. El reciente lanzamiento de nanochat —una familia de LLMs pequeños con datos de preentrenamiento completamente abiertos— aborda este problema al proporcionar una visión transparente sobre el origen del conocimiento paramétrico de un modelo. Con el objetivo de comprender cómo los LLMs codifican el conocimiento, presentamos NanoKnow, un dataset de referencia que divide preguntas de Natural Questions y SQuAD en segmentos según si sus respuestas están presentes o no en el corpus de preentrenamiento de nanochat. Utilizando estos segmentos, ahora podemos desentrañar adecuadamente las fuentes de conocimiento en las que los LLMs se basan al producir una salida. Para demostrar la utilidad de NanoKnow, realizamos experimentos utilizando ocho puntos de control de nanochat. Nuestros hallazgos muestran que: (1) la precisión en modo de libro cerrado está fuertemente influenciada por la frecuencia de la respuesta en los datos de preentrenamiento, (2) proporcionar evidencia externa puede mitigar esta dependencia de la frecuencia, (3) incluso con evidencia externa, los modelos son más precisos cuando las respuestas se vieron durante el preentrenamiento, lo que demuestra que el conocimiento paramétrico y el externo son complementarios, y (4) la información no relevante es perjudicial, ya que la precisión disminuye según la posición y la cantidad de contextos no relevantes. Publicamos todos los artefactos de NanoKnow en https://github.com/castorini/NanoKnow.
English
How do large language models (LLMs) know what they know? Answering this question has been difficult because pre-training data is often a "black box" -- unknown or inaccessible. The recent release of nanochat -- a family of small LLMs with fully open pre-training data -- addresses this as it provides a transparent view into where a model's parametric knowledge comes from. Towards the goal of understanding how knowledge is encoded by LLMs, we release NanoKnow, a benchmark dataset that partitions questions from Natural Questions and SQuAD into splits based on whether their answers are present in nanochat's pre-training corpus. Using these splits, we can now properly disentangle the sources of knowledge that LLMs rely on when producing an output. To demonstrate NanoKnow's utility, we conduct experiments using eight nanochat checkpoints. Our findings show: (1) closed-book accuracy is strongly influenced by answer frequency in the pre-training data, (2) providing external evidence can mitigate this frequency dependence, (3) even with external evidence, models are more accurate when answers were seen during pre-training, demonstrating that parametric and external knowledge are complementary, and (4) non-relevant information is harmful, with accuracy decreasing based on both the position and the number of non-relevant contexts. We release all NanoKnow artifacts at https://github.com/castorini/NanoKnow.
PDF42February 27, 2026