LegalSearchLM: Heroverweging van juridische zaakretrieval als generatie van juridische elementen
LegalSearchLM: Rethinking Legal Case Retrieval as Legal Elements Generation
May 28, 2025
Auteurs: Chaeeun Kim, Jinu Lee, Wonseok Hwang
cs.AI
Samenvatting
Jurisprudentie Retrieval (LCR), waarbij relevante rechtszaken worden opgehaald op basis van een queryzaak, is een fundamentele taak voor juridische professionals bij onderzoek en besluitvorming. Bestaande studies over LCR kampen echter met twee belangrijke beperkingen. Ten eerste worden ze geëvalueerd op relatief kleinschalige retrievalcorpora (bijv. 100-55K zaken) en gebruiken ze een beperkt scala aan strafrechtelijke querytypen, wat onvoldoende de complexiteit van real-world juridische retrievalscenario's weerspiegelt. Ten tweede leidt hun afhankelijkheid van op embeddings gebaseerde of lexicale matchingmethoden vaak tot beperkte representaties en juridisch irrelevante matches. Om deze problemen aan te pakken, presenteren wij: (1) LEGAR BENCH, de eerste grootschalige Koreaanse LCR-benchmark, die 411 diverse misdaadtypen in queries beslaat over 1,2 miljoen juridische zaken; en (2) LegalSearchLM, een retrievalmodel dat juridische elementen redeneert over de queryzaak en direct inhoud genereert die is verankerd in de doelzaken via constrained decoding. Experimentele resultaten tonen aan dat LegalSearchLM de baselines met 6-20% overtreft op LEGAR BENCH, wat resulteert in state-of-the-art prestaties. Het model toont ook een sterke generalisatie naar out-of-domain zaken, waarbij het naive generatieve modellen die op in-domeindata zijn getraind, met 15% overtreft.
English
Legal Case Retrieval (LCR), which retrieves relevant cases from a query case,
is a fundamental task for legal professionals in research and decision-making.
However, existing studies on LCR face two major limitations. First, they are
evaluated on relatively small-scale retrieval corpora (e.g., 100-55K cases) and
use a narrow range of criminal query types, which cannot sufficiently reflect
the complexity of real-world legal retrieval scenarios. Second, their reliance
on embedding-based or lexical matching methods often results in limited
representations and legally irrelevant matches. To address these issues, we
present: (1) LEGAR BENCH, the first large-scale Korean LCR benchmark, covering
411 diverse crime types in queries over 1.2M legal cases; and (2)
LegalSearchLM, a retrieval model that performs legal element reasoning over the
query case and directly generates content grounded in the target cases through
constrained decoding. Experimental results show that LegalSearchLM outperforms
baselines by 6-20% on LEGAR BENCH, achieving state-of-the-art performance. It
also demonstrates strong generalization to out-of-domain cases, outperforming
naive generative models trained on in-domain data by 15%.