ATOM: Construction Adaptative et Optimisée de Graphes de Connaissances Temporels Dynamiques à l'aide de LLMs
ATOM: AdapTive and OptiMized dynamic temporal knowledge graph construction using LLMs
October 26, 2025
papers.authors: Yassir Lairgi, Ludovic Moncla, Khalid Benabdeslem, Rémy Cazabet, Pierre Cléau
cs.AI
papers.abstract
Dans le paysage actuel des données en expansion rapide, l'extraction de connaissances à partir de textes non structurés est essentielle pour l'analyse en temps réel, l'inférence temporelle et les cadres de mémoire dynamique. Cependant, la construction traditionnelle de graphes de connaissances (GC) statiques néglige souvent la nature dynamique et temporellement sensible des données du monde réel, limitant ainsi l'adaptabilité aux changements continus. De plus, les approches récentes zero- ou few-shot qui évitent le fine-tuning spécifique à un domaine ou la dépendance à des ontologies préconstruites souffrent souvent d'une instabilité sur plusieurs exécutions, ainsi que d'une couverture incomplète des faits clés. Pour relever ces défis, nous présentons ATOM (AdapTive and OptiMized), une approche few-shot et évolutive qui construit et met continuellement à jour des Graphes de Connaissances Temporels (GCT) à partir de textes non structurés. ATOM segmente les documents d'entrée en faits "atomiques" minimaux et autonomes, améliorant l'exhaustivité et la stabilité de l'extraction. Ensuite, il construit des GCT atomiques à partir de ces faits tout en employant une modélisation à double temporalité qui distingue le moment où l'information est observée de celui où elle est valide. Les GCT atomiques résultants sont ensuite fusionnés en parallèle. Des évaluations empiriques démontrent qu'ATOM atteint une exhaustivité supérieure d'environ 18 %, une meilleure stabilité d'environ 17 % et une réduction de latence de plus de 90 % par rapport aux méthodes de référence, démontrant un fort potentiel d'évolutivité pour la construction dynamique de GCT.
English
In today's rapidly expanding data landscape, knowledge extraction from
unstructured text is vital for real-time analytics, temporal inference, and
dynamic memory frameworks. However, traditional static knowledge graph (KG)
construction often overlooks the dynamic and time-sensitive nature of
real-world data, limiting adaptability to continuous changes. Moreover, recent
zero- or few-shot approaches that avoid domain-specific fine-tuning or reliance
on prebuilt ontologies often suffer from instability across multiple runs, as
well as incomplete coverage of key facts. To address these challenges, we
introduce ATOM (AdapTive and OptiMized), a few-shot and scalable approach that
builds and continuously updates Temporal Knowledge Graphs (TKGs) from
unstructured texts. ATOM splits input documents into minimal, self-contained
"atomic" facts, improving extraction exhaustivity and stability. Then, it
constructs atomic TKGs from these facts while employing a dual-time modeling
that distinguishes when information is observed from when it is valid. The
resulting atomic TKGs are subsequently merged in parallel. Empirical
evaluations demonstrate that ATOM achieves ~18% higher exhaustivity, ~17%
better stability, and over 90% latency reduction compared to baseline methods,
demonstrating a strong scalability potential for dynamic TKG construction.