ChatPaper.aiChatPaper

LegalSearchLM: Replanteando la Recuperación de Casos Legales como Generación de Elementos Jurídicos

LegalSearchLM: Rethinking Legal Case Retrieval as Legal Elements Generation

May 28, 2025
Autores: Chaeeun Kim, Jinu Lee, Wonseok Hwang
cs.AI

Resumen

La Recuperación de Casos Legales (LCR, por sus siglas en inglés), que consiste en recuperar casos relevantes a partir de un caso consultado, es una tarea fundamental para los profesionales del derecho en la investigación y la toma de decisiones. Sin embargo, los estudios existentes sobre LCR enfrentan dos limitaciones principales. En primer lugar, se evalúan en corpus de recuperación relativamente pequeños (por ejemplo, de 100 a 55K casos) y utilizan un rango limitado de tipos de consultas penales, lo que no refleja adecuadamente la complejidad de los escenarios reales de recuperación legal. En segundo lugar, su dependencia de métodos basados en incrustaciones o coincidencias léxicas a menudo resulta en representaciones limitadas y coincidencias legalmente irrelevantes. Para abordar estos problemas, presentamos: (1) LEGAR BENCH, el primer benchmark coreano de LCR a gran escala, que cubre 411 tipos de delitos diversos en consultas sobre 1.2 millones de casos legales; y (2) LegalSearchLM, un modelo de recuperación que realiza razonamiento sobre los elementos legales del caso consultado y genera contenido directamente fundamentado en los casos objetivo mediante decodificación restringida. Los resultados experimentales muestran que LegalSearchLM supera a los modelos de referencia en un 6-20% en LEGAR BENCH, logrando un rendimiento de vanguardia. También demuestra una fuerte generalización a casos fuera del dominio, superando a los modelos generativos simples entrenados con datos del dominio en un 15%.
English
Legal Case Retrieval (LCR), which retrieves relevant cases from a query case, is a fundamental task for legal professionals in research and decision-making. However, existing studies on LCR face two major limitations. First, they are evaluated on relatively small-scale retrieval corpora (e.g., 100-55K cases) and use a narrow range of criminal query types, which cannot sufficiently reflect the complexity of real-world legal retrieval scenarios. Second, their reliance on embedding-based or lexical matching methods often results in limited representations and legally irrelevant matches. To address these issues, we present: (1) LEGAR BENCH, the first large-scale Korean LCR benchmark, covering 411 diverse crime types in queries over 1.2M legal cases; and (2) LegalSearchLM, a retrieval model that performs legal element reasoning over the query case and directly generates content grounded in the target cases through constrained decoding. Experimental results show that LegalSearchLM outperforms baselines by 6-20% on LEGAR BENCH, achieving state-of-the-art performance. It also demonstrates strong generalization to out-of-domain cases, outperforming naive generative models trained on in-domain data by 15%.
PDF21June 2, 2025