LegalSearchLM: Repensando a Recuperação de Casos Jurídicos como Geração de Elementos Legais
LegalSearchLM: Rethinking Legal Case Retrieval as Legal Elements Generation
May 28, 2025
Autores: Chaeeun Kim, Jinu Lee, Wonseok Hwang
cs.AI
Resumo
A Recuperação de Casos Jurídicos (LCR, do inglês Legal Case Retrieval), que recupera casos relevantes a partir de um caso de consulta, é uma tarefa fundamental para profissionais do direito em pesquisas e tomadas de decisão. No entanto, os estudos existentes sobre LCR enfrentam duas grandes limitações. Primeiro, eles são avaliados em corpora de recuperação relativamente pequenos (por exemplo, 100 a 55 mil casos) e utilizam uma gama estreita de tipos de consultas criminais, o que não reflete adequadamente a complexidade dos cenários reais de recuperação jurídica. Segundo, sua dependência de métodos baseados em embeddings ou correspondência lexical frequentemente resulta em representações limitadas e correspondências juridicamente irrelevantes. Para abordar essas questões, apresentamos: (1) LEGAR BENCH, o primeiro benchmark coreano de LCR em grande escala, abrangendo 411 tipos de crimes diversos em consultas sobre 1,2 milhão de casos jurídicos; e (2) LegalSearchLM, um modelo de recuperação que realiza raciocínio sobre elementos jurídicos do caso de consulta e gera diretamente conteúdo fundamentado nos casos-alvo por meio de decodificação restrita. Os resultados experimentais mostram que o LegalSearchLM supera as baselines em 6-20% no LEGAR BENCH, alcançando desempenho de ponta. Ele também demonstra forte generalização para casos fora do domínio, superando modelos generativos ingênuos treinados com dados do domínio em 15%.
English
Legal Case Retrieval (LCR), which retrieves relevant cases from a query case,
is a fundamental task for legal professionals in research and decision-making.
However, existing studies on LCR face two major limitations. First, they are
evaluated on relatively small-scale retrieval corpora (e.g., 100-55K cases) and
use a narrow range of criminal query types, which cannot sufficiently reflect
the complexity of real-world legal retrieval scenarios. Second, their reliance
on embedding-based or lexical matching methods often results in limited
representations and legally irrelevant matches. To address these issues, we
present: (1) LEGAR BENCH, the first large-scale Korean LCR benchmark, covering
411 diverse crime types in queries over 1.2M legal cases; and (2)
LegalSearchLM, a retrieval model that performs legal element reasoning over the
query case and directly generates content grounded in the target cases through
constrained decoding. Experimental results show that LegalSearchLM outperforms
baselines by 6-20% on LEGAR BENCH, achieving state-of-the-art performance. It
also demonstrates strong generalization to out-of-domain cases, outperforming
naive generative models trained on in-domain data by 15%.