ChatPaper.aiChatPaper

ATOM: Adaptive und optimierte dynamische Wissensgraphenkonstruktion unter Verwendung von LLMs

ATOM: AdapTive and OptiMized dynamic temporal knowledge graph construction using LLMs

October 26, 2025
papers.authors: Yassir Lairgi, Ludovic Moncla, Khalid Benabdeslem, Rémy Cazabet, Pierre Cléau
cs.AI

papers.abstract

In der heutigen sich rasch ausweitenden Datenlandschaft ist die Wissensextraktion aus unstrukturierten Texten entscheidend für Echtzeitanalysen, temporale Inferenz und dynamische Gedächtnisframeworks. Traditionelle Methoden zur Erstellung statischer Wissensgraphen (KG) übersehen jedoch oft die dynamische und zeitkritische Natur realer Daten, was die Anpassungsfähigkeit an kontinuierliche Veränderungen einschränkt. Zudem leiden aktuelle Zero- oder Few-Shot-Ansätze, die auf domainspezifisches Fine-Tuning oder vordefinierte Ontologien verzichten, häufig unter Instabilität über mehrere Durchläufe hinweg sowie unvollständiger Abdeckung wichtiger Fakten. Um diese Herausforderungen zu bewältigen, stellen wir ATOM (AdapTive and OptiMized) vor, einen Few-Shot- und skalierbaren Ansatz, der temporale Wissensgraphen (TKG) aus unstrukturierten Texten aufbaut und kontinuierlich aktualisiert. ATOM unterteilt Eingabedokumente in minimale, in sich geschlossene "atomare" Fakten, was die Exhaustivität und Stabilität der Extraktion verbessert. Anschließend konstruiert es daraus atomare TKGs unter Verwendung einer dualen Zeitmodellierung, die zwischen dem Zeitpunkt der Beobachtung einer Information und dem Zeitpunkt ihrer Gültigkeit unterscheidet. Die resultierenden atomaren TKGs werden anschließend parallel zusammengeführt. Empirische Auswertungen zeigen, dass ATOM im Vergleich zu Baseline-Methoden eine ~18 % höhere Exhaustivität, eine ~17 % bessere Stabilität und eine über 90 % geringere Latenzzeit erreicht, was ein starkes Skalierungspotenzial für die dynamische TKG-Konstruktion demonstriert.
English
In today's rapidly expanding data landscape, knowledge extraction from unstructured text is vital for real-time analytics, temporal inference, and dynamic memory frameworks. However, traditional static knowledge graph (KG) construction often overlooks the dynamic and time-sensitive nature of real-world data, limiting adaptability to continuous changes. Moreover, recent zero- or few-shot approaches that avoid domain-specific fine-tuning or reliance on prebuilt ontologies often suffer from instability across multiple runs, as well as incomplete coverage of key facts. To address these challenges, we introduce ATOM (AdapTive and OptiMized), a few-shot and scalable approach that builds and continuously updates Temporal Knowledge Graphs (TKGs) from unstructured texts. ATOM splits input documents into minimal, self-contained "atomic" facts, improving extraction exhaustivity and stability. Then, it constructs atomic TKGs from these facts while employing a dual-time modeling that distinguishes when information is observed from when it is valid. The resulting atomic TKGs are subsequently merged in parallel. Empirical evaluations demonstrate that ATOM achieves ~18% higher exhaustivity, ~17% better stability, and over 90% latency reduction compared to baseline methods, demonstrating a strong scalability potential for dynamic TKG construction.
PDF41December 1, 2025