ChatPaper.aiChatPaper

LegalSearchLM : Repenser la recherche de jurisprudence comme une génération d'éléments juridiques

LegalSearchLM: Rethinking Legal Case Retrieval as Legal Elements Generation

May 28, 2025
Auteurs: Chaeeun Kim, Jinu Lee, Wonseok Hwang
cs.AI

Résumé

La recherche de cas juridiques (Legal Case Retrieval, LCR), qui consiste à retrouver des cas pertinents à partir d'un cas de requête, est une tâche fondamentale pour les professionnels du droit dans leurs recherches et prises de décision. Cependant, les études existantes sur la LCR présentent deux limitations majeures. Premièrement, elles sont évaluées sur des corpus de recherche relativement petits (par exemple, 100 à 55 000 cas) et utilisent une gamme étroite de types de requêtes criminelles, ce qui ne reflète pas suffisamment la complexité des scénarios réels de recherche juridique. Deuxièmement, leur dépendance à des méthodes basées sur des embeddings ou des correspondances lexicales aboutit souvent à des représentations limitées et à des correspondances juridiquement non pertinentes. Pour résoudre ces problèmes, nous présentons : (1) LEGAR BENCH, le premier benchmark coréen à grande échelle pour la LCR, couvrant 411 types de crimes divers dans les requêtes sur 1,2 million de cas juridiques ; et (2) LegalSearchLM, un modèle de recherche qui effectue un raisonnement sur les éléments juridiques du cas de requête et génère directement un contenu ancré dans les cas cibles grâce à un décodage contraint. Les résultats expérimentaux montrent que LegalSearchLM surpasse les modèles de référence de 6 à 20 % sur LEGAR BENCH, atteignant des performances de pointe. Il démontre également une forte généralisation aux cas hors domaine, surpassant les modèles génératifs naïfs entraînés sur des données du domaine de 15 %.
English
Legal Case Retrieval (LCR), which retrieves relevant cases from a query case, is a fundamental task for legal professionals in research and decision-making. However, existing studies on LCR face two major limitations. First, they are evaluated on relatively small-scale retrieval corpora (e.g., 100-55K cases) and use a narrow range of criminal query types, which cannot sufficiently reflect the complexity of real-world legal retrieval scenarios. Second, their reliance on embedding-based or lexical matching methods often results in limited representations and legally irrelevant matches. To address these issues, we present: (1) LEGAR BENCH, the first large-scale Korean LCR benchmark, covering 411 diverse crime types in queries over 1.2M legal cases; and (2) LegalSearchLM, a retrieval model that performs legal element reasoning over the query case and directly generates content grounded in the target cases through constrained decoding. Experimental results show that LegalSearchLM outperforms baselines by 6-20% on LEGAR BENCH, achieving state-of-the-art performance. It also demonstrates strong generalization to out-of-domain cases, outperforming naive generative models trained on in-domain data by 15%.
PDF21June 2, 2025