ChatPaper.aiChatPaper

LegalSearchLM: Переосмысление поиска юридических прецедентов как генерации юридических элементов

LegalSearchLM: Rethinking Legal Case Retrieval as Legal Elements Generation

May 28, 2025
Авторы: Chaeeun Kim, Jinu Lee, Wonseok Hwang
cs.AI

Аннотация

Поиск юридических прецедентов (Legal Case Retrieval, LCR), который заключается в извлечении релевантных дел на основе запроса, является фундаментальной задачей для юридических специалистов в исследованиях и принятии решений. Однако существующие исследования в области LCR сталкиваются с двумя основными ограничениями. Во-первых, они оцениваются на относительно небольших корпусах для поиска (например, 100–55 тыс. дел) и используют узкий спектр типов уголовных запросов, что не позволяет в полной мере отразить сложность реальных сценариев юридического поиска. Во-вторых, их зависимость от методов, основанных на векторных представлениях или лексическом сопоставлении, часто приводит к ограниченным представлениям и юридически нерелевантным совпадениям. Для решения этих проблем мы представляем: (1) LEGAR BENCH — первый крупномасштабный корейский бенчмарк для LCR, охватывающий 411 разнообразных типов преступлений в запросах на основе более 1,2 млн юридических дел; и (2) LegalSearchLM — модель поиска, которая выполняет анализ юридических элементов в запросе и напрямую генерирует контент, основанный на целевых делах, с использованием ограниченного декодирования. Результаты экспериментов показывают, что LegalSearchLM превосходит базовые модели на 6–20% на LEGAR BENCH, достигая наилучших результатов. Кроме того, модель демонстрирует сильную способность к обобщению на случаи, выходящие за пределы домена, превосходя наивные генеративные модели, обученные на данных из домена, на 15%.
English
Legal Case Retrieval (LCR), which retrieves relevant cases from a query case, is a fundamental task for legal professionals in research and decision-making. However, existing studies on LCR face two major limitations. First, they are evaluated on relatively small-scale retrieval corpora (e.g., 100-55K cases) and use a narrow range of criminal query types, which cannot sufficiently reflect the complexity of real-world legal retrieval scenarios. Second, their reliance on embedding-based or lexical matching methods often results in limited representations and legally irrelevant matches. To address these issues, we present: (1) LEGAR BENCH, the first large-scale Korean LCR benchmark, covering 411 diverse crime types in queries over 1.2M legal cases; and (2) LegalSearchLM, a retrieval model that performs legal element reasoning over the query case and directly generates content grounded in the target cases through constrained decoding. Experimental results show that LegalSearchLM outperforms baselines by 6-20% on LEGAR BENCH, achieving state-of-the-art performance. It also demonstrates strong generalization to out-of-domain cases, outperforming naive generative models trained on in-domain data by 15%.
PDF21June 2, 2025