ChatPaper.aiChatPaper

ATOM: LLMを活用した適応的かつ最適化された動的時間的知識グラフ構築

ATOM: AdapTive and OptiMized dynamic temporal knowledge graph construction using LLMs

October 26, 2025
著者: Yassir Lairgi, Ludovic Moncla, Khalid Benabdeslem, Rémy Cazabet, Pierre Cléau
cs.AI

要旨

今日の急速に拡大するデータ環境において、非構造化テキストからの知識抽出は、リアルタイム分析、時間的推論、動的メモリフレームワークにとって極めて重要である。しかし、従来の静的な知識グラフ(KG)構築は、実世界データの動的かつ時間敏感な性質を見落としがちで、継続的な変化への適応性が限られている。さらに、ドメイン固有のファインチューニングや事前構築されたオントロジーへの依存を回避する最近のゼロショットまたは少数ショットアプローチは、複数回の実行にわたる不安定性や、主要な事実の不完全な網羅性に悩まされることが多い。これらの課題に対処するため、我々はATOM(AdapTive and OptiMized)を提案する。これは非構造化テキストから時間的知識グラフ(TKG)を構築し、継続的に更新する、少数ショットでスケーラブルなアプローチである。ATOMは入力文書を最小の自己完結型「原子的」事実に分割し、抽出の網羅性と安定性を向上させる。次に、これらの事実から原子的TKGを構築するとともに、情報が観測された時点とそれが有効であった時点を区別する二重時間モデリングを採用する。結果として得られた原子的TKGは、その後並列に統合される。実証評価により、ATOMはベースライン手法と比較して、約18%高い網羅性、約17%優れた安定性、90%以上の遅延削減を達成し、動的TKG構築における強力なスケーラビリティの可能性を示している。
English
In today's rapidly expanding data landscape, knowledge extraction from unstructured text is vital for real-time analytics, temporal inference, and dynamic memory frameworks. However, traditional static knowledge graph (KG) construction often overlooks the dynamic and time-sensitive nature of real-world data, limiting adaptability to continuous changes. Moreover, recent zero- or few-shot approaches that avoid domain-specific fine-tuning or reliance on prebuilt ontologies often suffer from instability across multiple runs, as well as incomplete coverage of key facts. To address these challenges, we introduce ATOM (AdapTive and OptiMized), a few-shot and scalable approach that builds and continuously updates Temporal Knowledge Graphs (TKGs) from unstructured texts. ATOM splits input documents into minimal, self-contained "atomic" facts, improving extraction exhaustivity and stability. Then, it constructs atomic TKGs from these facts while employing a dual-time modeling that distinguishes when information is observed from when it is valid. The resulting atomic TKGs are subsequently merged in parallel. Empirical evaluations demonstrate that ATOM achieves ~18% higher exhaustivity, ~17% better stability, and over 90% latency reduction compared to baseline methods, demonstrating a strong scalability potential for dynamic TKG construction.
PDF41December 1, 2025