ATOM: Construção Adaptativa e Otimizada Dinâmica de Grafos de Conhecimento Temporal usando LLMs
ATOM: AdapTive and OptiMized dynamic temporal knowledge graph construction using LLMs
October 26, 2025
Autores: Yassir Lairgi, Ludovic Moncla, Khalid Benabdeslem, Rémy Cazabet, Pierre Cléau
cs.AI
Resumo
No atual cenário de rápida expansão de dados, a extração de conhecimento a partir de textos não estruturados é vital para análises em tempo real, inferência temporal e estruturas de memória dinâmica. No entanto, a construção tradicional de grafos de conhecimento (KG) estáticos frequentemente ignora a natureza dinâmica e sensível ao tempo dos dados do mundo real, limitando a adaptabilidade a mudanças contínuas. Além disso, abordagens recentes *zero-shot* ou *few-shot* que evitam ajuste fino específico de domínio ou dependência de ontologias pré-construídas frequentemente sofrem com instabilidade em múltiplas execuções, bem como cobertura incompleta de fatos-chave. Para enfrentar esses desafios, apresentamos o ATOM (AdapTive and OptiMized), uma abordagem *few-shot* e escalável que constrói e atualiza continuamente Grafos de Conhecimento Temporais (TKGs) a partir de textos não estruturados. O ATOM divide documentos de entrada em fatos mínimos e autônomos ("atômicos"), melhorando a exaustividade e a estabilidade da extração. Em seguida, constrói TKGs atômicos a partir desses fatos, empregando uma modelagem de tempo dual que distingue quando a informação é observada de quando ela é válida. Os TKGs atômicos resultantes são subsequentemente fundidos em paralelo. Avaliações empíricas demonstram que o ATOM alcança aproximadamente 18% maior exaustividade, cerca de 17% melhor estabilidade e redução de latência superior a 90% em comparação com métodos de referência, demonstrando um forte potencial de escalabilidade para a construção dinâmica de TKGs.
English
In today's rapidly expanding data landscape, knowledge extraction from
unstructured text is vital for real-time analytics, temporal inference, and
dynamic memory frameworks. However, traditional static knowledge graph (KG)
construction often overlooks the dynamic and time-sensitive nature of
real-world data, limiting adaptability to continuous changes. Moreover, recent
zero- or few-shot approaches that avoid domain-specific fine-tuning or reliance
on prebuilt ontologies often suffer from instability across multiple runs, as
well as incomplete coverage of key facts. To address these challenges, we
introduce ATOM (AdapTive and OptiMized), a few-shot and scalable approach that
builds and continuously updates Temporal Knowledge Graphs (TKGs) from
unstructured texts. ATOM splits input documents into minimal, self-contained
"atomic" facts, improving extraction exhaustivity and stability. Then, it
constructs atomic TKGs from these facts while employing a dual-time modeling
that distinguishes when information is observed from when it is valid. The
resulting atomic TKGs are subsequently merged in parallel. Empirical
evaluations demonstrate that ATOM achieves ~18% higher exhaustivity, ~17%
better stability, and over 90% latency reduction compared to baseline methods,
demonstrating a strong scalability potential for dynamic TKG construction.