ATOM: Costruzione adattiva e ottimizzata di grafi di conoscenza temporali dinamici mediante LLM
ATOM: AdapTive and OptiMized dynamic temporal knowledge graph construction using LLMs
October 26, 2025
Autori: Yassir Lairgi, Ludovic Moncla, Khalid Benabdeslem, Rémy Cazabet, Pierre Cléau
cs.AI
Abstract
Nell'attuale panorama dei dati in rapida espansione, l'estrazione di conoscenza da testi non strutturati è fondamentale per l'analisi in tempo reale, l'inferenza temporale e i framework di memoria dinamica. Tuttavia, la costruzione tradizionale di grafi della conoscenza (KG) statici trascura spesso la natura dinamica e sensibile al tempo dei dati del mondo reale, limitando l'adattabilità ai cambiamenti continui. Inoltre, i recenti approcci zero-shot o few-shot che evitano fine-tuning specifico per dominio o l'affidamento a ontologie predefinite spesso soffrono di instabilità tra esecuzioni multiple e copertura incompleta dei fatti chiave. Per affrontare queste sfide, introduciamo ATOM (AdapTive and OptiMized), un approccio few-shot e scalabile che costruisce e aggiorna continuamente Grafi della Conoscenza Temporali (TKG) a partire da testi non strutturati. ATOM suddivide i documenti in input in fatti minimi e autosufficienti ("atomici"), migliorando l'esaustività e la stabilità dell'estrazione. Successivamente, costruisce TKG atomici da questi fatti impiegando una modellazione a doppio tempo che distingue quando un'informazione è osservata da quando è valida. I TKG atomici risultanti vengono poi fusi in parallelo. Valutazioni empiriche dimostrano che ATOM raggiunge un'esaustività superiore di ~18%, una stabilità migliore del ~17% e una riduzione della latenza superiore al 90% rispetto ai metodi baseline, dimostrando un forte potenziale di scalabilità per la costruzione dinamica di TKG.
English
In today's rapidly expanding data landscape, knowledge extraction from
unstructured text is vital for real-time analytics, temporal inference, and
dynamic memory frameworks. However, traditional static knowledge graph (KG)
construction often overlooks the dynamic and time-sensitive nature of
real-world data, limiting adaptability to continuous changes. Moreover, recent
zero- or few-shot approaches that avoid domain-specific fine-tuning or reliance
on prebuilt ontologies often suffer from instability across multiple runs, as
well as incomplete coverage of key facts. To address these challenges, we
introduce ATOM (AdapTive and OptiMized), a few-shot and scalable approach that
builds and continuously updates Temporal Knowledge Graphs (TKGs) from
unstructured texts. ATOM splits input documents into minimal, self-contained
"atomic" facts, improving extraction exhaustivity and stability. Then, it
constructs atomic TKGs from these facts while employing a dual-time modeling
that distinguishes when information is observed from when it is valid. The
resulting atomic TKGs are subsequently merged in parallel. Empirical
evaluations demonstrate that ATOM achieves ~18% higher exhaustivity, ~17%
better stability, and over 90% latency reduction compared to baseline methods,
demonstrating a strong scalability potential for dynamic TKG construction.