ATOM: Адаптивное и оптимизированное динамическое построение временных графов знаний с использованием больших языковых моделей
ATOM: AdapTive and OptiMized dynamic temporal knowledge graph construction using LLMs
October 26, 2025
Авторы: Yassir Lairgi, Ludovic Moncla, Khalid Benabdeslem, Rémy Cazabet, Pierre Cléau
cs.AI
Аннотация
В условиях стремительного расширения ландшафта данных извлечение знаний из неструктурированного текста становится критически важным для аналитики в реальном времени, временных выводов и динамических структур памяти. Однако традиционное построение статических графов знаний часто игнорирует динамическую и зависящую от времени природу реальных данных, ограничивая адаптивность к непрерывным изменениям. Более того, современные подходы с нулевым или малым количеством примеров, которые избегают специфичной для домена тонкой настройки или опоры на предварительно построенные онтологии, часто страдают от нестабильности при многократных запусках, а также неполного охвата ключевых фактов. Для решения этих проблем мы представляем ATOM (AdapTive and OptiMized), масштабируемый подход с малым количеством примеров, который строит и непрерывно обновляет Временные Графы Знаний из неструктурированных текстов. ATOM разбивает входные документы на минимальные, самодостаточные «атомарные» факты, повышая полноту и стабильность извлечения. Затем он строит атомарные ВГЗ из этих фактов, используя дуальную временную модель, которая различает момент наблюдения информации и период её действительности. Полученные атомарные ВГЗ затем объединяются параллельно. Эмпирические оценки показывают, что ATOM достигает примерно на 18% более высокой полноты, на 17% лучшей стабильности и снижения задержки более чем на 90% по сравнению с базовыми методами, демонстрируя высокий потенциал масштабируемости для построения динамических ВГЗ.
English
In today's rapidly expanding data landscape, knowledge extraction from
unstructured text is vital for real-time analytics, temporal inference, and
dynamic memory frameworks. However, traditional static knowledge graph (KG)
construction often overlooks the dynamic and time-sensitive nature of
real-world data, limiting adaptability to continuous changes. Moreover, recent
zero- or few-shot approaches that avoid domain-specific fine-tuning or reliance
on prebuilt ontologies often suffer from instability across multiple runs, as
well as incomplete coverage of key facts. To address these challenges, we
introduce ATOM (AdapTive and OptiMized), a few-shot and scalable approach that
builds and continuously updates Temporal Knowledge Graphs (TKGs) from
unstructured texts. ATOM splits input documents into minimal, self-contained
"atomic" facts, improving extraction exhaustivity and stability. Then, it
constructs atomic TKGs from these facts while employing a dual-time modeling
that distinguishes when information is observed from when it is valid. The
resulting atomic TKGs are subsequently merged in parallel. Empirical
evaluations demonstrate that ATOM achieves ~18% higher exhaustivity, ~17%
better stability, and over 90% latency reduction compared to baseline methods,
demonstrating a strong scalability potential for dynamic TKG construction.