LegalSearchLM : Repenser la recherche de jurisprudence comme une génération d'éléments juridiques
LegalSearchLM: Rethinking Legal Case Retrieval as Legal Elements Generation
May 28, 2025
Auteurs: Chaeeun Kim, Jinu Lee, Wonseok Hwang
cs.AI
Résumé
La recherche de cas juridiques (Legal Case Retrieval, LCR), qui consiste à retrouver des cas pertinents à partir d'un cas de requête, est une tâche fondamentale pour les professionnels du droit dans leurs recherches et prises de décision. Cependant, les études existantes sur la LCR présentent deux limitations majeures. Premièrement, elles sont évaluées sur des corpus de recherche relativement petits (par exemple, 100 à 55 000 cas) et utilisent une gamme étroite de types de requêtes criminelles, ce qui ne reflète pas suffisamment la complexité des scénarios réels de recherche juridique. Deuxièmement, leur dépendance à des méthodes basées sur des embeddings ou des correspondances lexicales aboutit souvent à des représentations limitées et à des correspondances juridiquement non pertinentes. Pour résoudre ces problèmes, nous présentons : (1) LEGAR BENCH, le premier benchmark coréen à grande échelle pour la LCR, couvrant 411 types de crimes divers dans les requêtes sur 1,2 million de cas juridiques ; et (2) LegalSearchLM, un modèle de recherche qui effectue un raisonnement sur les éléments juridiques du cas de requête et génère directement un contenu ancré dans les cas cibles grâce à un décodage contraint. Les résultats expérimentaux montrent que LegalSearchLM surpasse les modèles de référence de 6 à 20 % sur LEGAR BENCH, atteignant des performances de pointe. Il démontre également une forte généralisation aux cas hors domaine, surpassant les modèles génératifs naïfs entraînés sur des données du domaine de 15 %.
English
Legal Case Retrieval (LCR), which retrieves relevant cases from a query case,
is a fundamental task for legal professionals in research and decision-making.
However, existing studies on LCR face two major limitations. First, they are
evaluated on relatively small-scale retrieval corpora (e.g., 100-55K cases) and
use a narrow range of criminal query types, which cannot sufficiently reflect
the complexity of real-world legal retrieval scenarios. Second, their reliance
on embedding-based or lexical matching methods often results in limited
representations and legally irrelevant matches. To address these issues, we
present: (1) LEGAR BENCH, the first large-scale Korean LCR benchmark, covering
411 diverse crime types in queries over 1.2M legal cases; and (2)
LegalSearchLM, a retrieval model that performs legal element reasoning over the
query case and directly generates content grounded in the target cases through
constrained decoding. Experimental results show that LegalSearchLM outperforms
baselines by 6-20% on LEGAR BENCH, achieving state-of-the-art performance. It
also demonstrates strong generalization to out-of-domain cases, outperforming
naive generative models trained on in-domain data by 15%.