ChatPaper.aiChatPaper

Attribuzione Documentale: Analisi delle Relazioni di Citazione mediante Modelli Linguistici di Grande Scala

Document Attribution: Examining Citation Relationships using Large Language Models

May 9, 2025
Autori: Vipula Rawte, Ryan A. Rossi, Franck Dernoncourt, Nedim Lipka
cs.AI

Abstract

Man mano che i Modelli Linguistici di Grande Dimensione (LLM) vengono sempre più applicati a compiti basati su documenti - come la sintesi di documenti, il question answering e l'estrazione di informazioni - dove i requisiti degli utenti si concentrano sul recupero di informazioni da documenti forniti piuttosto che sulla conoscenza parametrica del modello, garantire l'affidabilità e l'interpretabilità di questi sistemi è diventata una preoccupazione critica. Un approccio centrale per affrontare questa sfida è l'attribuzione, che consiste nel rintracciare gli output generati fino ai documenti sorgente. Tuttavia, poiché gli LLM possono produrre risposte inaccurate o imprecise, è cruciale valutare l'affidabilità di queste citazioni. Per affrontare questo problema, il nostro lavoro propone due tecniche. (1) Un approccio zero-shot che inquadra l'attribuzione come un semplice compito di implicazione testuale. Il nostro metodo che utilizza flan-ul2 dimostra un miglioramento dello 0,27% e del 2,4% rispetto alla migliore baseline degli insiemi ID e OOD di AttributionBench, rispettivamente. (2) Esploriamo inoltre il ruolo del meccanismo di attenzione nel migliorare il processo di attribuzione. Utilizzando un LLM più piccolo, flan-t5-small, i punteggi F1 superano la baseline in quasi tutti i livelli, ad eccezione del livello 4 e dei livelli da 8 a 11.
English
As Large Language Models (LLMs) are increasingly applied to document-based tasks - such as document summarization, question answering, and information extraction - where user requirements focus on retrieving information from provided documents rather than relying on the model's parametric knowledge, ensuring the trustworthiness and interpretability of these systems has become a critical concern. A central approach to addressing this challenge is attribution, which involves tracing the generated outputs back to their source documents. However, since LLMs can produce inaccurate or imprecise responses, it is crucial to assess the reliability of these citations. To tackle this, our work proposes two techniques. (1) A zero-shot approach that frames attribution as a straightforward textual entailment task. Our method using flan-ul2 demonstrates an improvement of 0.27% and 2.4% over the best baseline of ID and OOD sets of AttributionBench, respectively. (2) We also explore the role of the attention mechanism in enhancing the attribution process. Using a smaller LLM, flan-t5-small, the F1 scores outperform the baseline across almost all layers except layer 4 and layers 8 through 11.
PDF32May 13, 2025