DoTA-RAG: Dynamische Gedankenaggregation RAG
DoTA-RAG: Dynamic of Thought Aggregation RAG
June 14, 2025
Autoren: Saksorn Ruangtanusak, Natthapath Rungseesiripak, Peerawat Rojratchadakorn, Monthol Charattrakool, Natapong Nitarach
cs.AI
Zusammenfassung
In diesem Artikel stellen wir DoTA-RAG (Dynamic-of-Thought Aggregation RAG) vor, ein retrieval-augmented Generation-System, das für hohen Durchsatz und große Web-Wissensindizes optimiert ist. Traditionelle RAG-Pipelines leiden oft unter hoher Latenz und begrenzter Genauigkeit bei massiven, diversen Datensätzen. DoTA-RAG adressiert diese Herausforderungen mit einer dreistufigen Pipeline: Query-Rewriting, dynamisches Routing zu spezialisierten Sub-Indizes sowie mehrstufige Retrieval- und Ranking-Prozesse. Wir verbessern das Retrieval weiter, indem wir ein überlegenes Embedding-Modell evaluieren und auswählen und das große FineWeb-10BT-Korpus neu einbetten. Darüber hinaus erstellen wir einen diversen Q&A-Datensatz mit 500 Fragen, die über das DataMorgana-Setup zu einer breiten Palette von WebOrganizer-Themen und -Formaten generiert wurden. DoTA-RAG verbessert den Antwortkorrektheits-Score von 0,752 (Baseline, unter Verwendung des LiveRAG vorgefertigten Vektorspeichers) auf 1,478 bei gleichbleibend niedriger Latenz und erreicht einen Korrektheits-Score von 0,929 am Live Challenge Day. Diese Ergebnisse unterstreichen das Potenzial von DoTA-RAG für den praktischen Einsatz in Domänen, die schnellen und zuverlässigen Zugriff auf große und sich entwickelnde Wissensquellen erfordern.
English
In this paper, we introduce DoTA-RAG (Dynamic-of-Thought Aggregation RAG), a
retrieval-augmented generation system optimized for high-throughput,
large-scale web knowledge indexes. Traditional RAG pipelines often suffer from
high latency and limited accuracy over massive, diverse datasets. DoTA-RAG
addresses these challenges with a three-stage pipeline: query rewriting,
dynamic routing to specialized sub-indexes, and multi-stage retrieval and
ranking. We further enhance retrieval by evaluating and selecting a superior
embedding model, re-embedding the large FineWeb-10BT corpus. Moreover, we
create a diverse Q&A dataset of 500 questions generated via the DataMorgana
setup across a broad range of WebOrganizer topics and formats. DoTA-RAG
improves the answer correctness score from 0.752 (baseline, using LiveRAG
pre-built vector store) to 1.478 while maintaining low latency, and it achieves
a 0.929 correctness score on the Live Challenge Day. These results highlight
DoTA-RAG's potential for practical deployment in domains requiring fast,
reliable access to large and evolving knowledge sources.