LegalSearchLM: Umdenken bei der juristischen Fallrecherche als Generierung von Rechtselementen
LegalSearchLM: Rethinking Legal Case Retrieval as Legal Elements Generation
May 28, 2025
Autoren: Chaeeun Kim, Jinu Lee, Wonseok Hwang
cs.AI
Zusammenfassung
Legal Case Retrieval (LCR), bei dem relevante Fälle anhand eines Abfragefalls ermittelt werden, ist eine grundlegende Aufgabe für juristische Fachkräfte in Forschung und Entscheidungsfindung. Bestehende Studien zu LCR weisen jedoch zwei wesentliche Einschränkungen auf. Erstens werden sie auf relativ kleinen Retrieval-Korpora (z. B. 100–55.000 Fälle) evaluiert und verwenden eine begrenzte Bandbreite von strafrechtlichen Abfragetypen, was die Komplexität realer juristischer Retrieval-Szenarien nicht ausreichend widerspiegelt. Zweitens führt ihre Abhängigkeit von Embedding-basierten oder lexikalischen Matching-Methoden oft zu begrenzten Repräsentationen und juristisch irrelevanten Übereinstimmungen. Um diese Probleme zu lösen, präsentieren wir: (1) LEGAR BENCH, den ersten groß angelegten koreanischen LCR-Benchmark, der 411 verschiedene Straftattypen in Abfragen über 1,2 Millionen juristische Fälle abdeckt; und (2) LegalSearchLM, ein Retrieval-Modell, das eine juristische Elementanalyse des Abfragefalls durchführt und durch eingeschränkte Dekodierung inhaltsbasierte, zielgerichtete Inhalte direkt generiert. Experimentelle Ergebnisse zeigen, dass LegalSearchLM die Baselines auf LEGAR BENCH um 6–20 % übertrifft und damit Spitzenleistungen erzielt. Es zeigt auch eine starke Generalisierungsfähigkeit bei Fällen außerhalb des Trainingsbereichs und übertrifft naive generative Modelle, die auf domänenspezifischen Daten trainiert wurden, um 15 %.
English
Legal Case Retrieval (LCR), which retrieves relevant cases from a query case,
is a fundamental task for legal professionals in research and decision-making.
However, existing studies on LCR face two major limitations. First, they are
evaluated on relatively small-scale retrieval corpora (e.g., 100-55K cases) and
use a narrow range of criminal query types, which cannot sufficiently reflect
the complexity of real-world legal retrieval scenarios. Second, their reliance
on embedding-based or lexical matching methods often results in limited
representations and legally irrelevant matches. To address these issues, we
present: (1) LEGAR BENCH, the first large-scale Korean LCR benchmark, covering
411 diverse crime types in queries over 1.2M legal cases; and (2)
LegalSearchLM, a retrieval model that performs legal element reasoning over the
query case and directly generates content grounded in the target cases through
constrained decoding. Experimental results show that LegalSearchLM outperforms
baselines by 6-20% on LEGAR BENCH, achieving state-of-the-art performance. It
also demonstrates strong generalization to out-of-domain cases, outperforming
naive generative models trained on in-domain data by 15%.