PatRe: Un Punto de Referencia Integral para la Generación de Oficios de Examen y Refutaciones en el Proceso de Patentes
PatRe: A Full-Stage Office Action and Rebuttal Generation Benchmark for Patent Examination
May 5, 2026
Autores: Qiyao Wang, Xinyi Chen, Longze Chen, Hongbo Wang, Hamid Alinejad-Rokny, Yuan Lin, Min Yang
cs.AI
Resumen
La examinación de patentes es un proceso complejo y multifásico que requiere tanto experiencia técnica como razonamiento legal, y que se ve cada vez más desafiado por el creciente volumen de solicitudes. Los puntos de referencia anteriores consideran predominantemente la examinación de patentes como una clasificación discriminatoria o una extracción estática, sin capturar su naturaleza inherentemente interactiva e iterativa, similar al proceso de revisión por pares y réplica en la publicación académica. En este artículo, presentamos PatRe, el primer punto de referencia que modela el ciclo de vida completo de la examinación de patentes, incluyendo la generación de Acciones de la Oficina y la réplica del solicitante. PatRe comprende 480 casos del mundo real y admite configuraciones de evaluación simulada tanto con oráculo como con recuperación de información. Nuestro punto de referencia replantea la examinación de patentes como un proceso dinámico y multiturno de justificación y respuesta. Experimentos exhaustivos con varios LLM revelan perspectivas críticas sobre el rendimiento de los modelos, incluidas las diferencias entre modelos propietarios y de código abierto, así como asimetrías de tareas entre el análisis del examinador y la réplica desde la perspectiva del solicitante. Estos hallazgos destacan tanto el potencial como las limitaciones actuales de los LLM para modelar el razonamiento legal complejo del mundo real y el juicio de novedad técnica en la examinación de patentes. Publicamos nuestro código y conjunto de datos para facilitar futuras investigaciones sobre el modelado de la examinación de patentes.
English
Patent examination is a complex, multi-stage process requiring both technical expertise and legal reasoning, increasingly challenged by rising application volumes. Prior benchmarks predominantly view patent examination as discriminative classification or static extraction, failing to capture its inherently interactive and iterative nature, similar to the peer review and rebuttal process in academic publishing. In this paper, we introduce PatRe, the first benchmark that models the full patent examination lifecycle, including Office Action generation and applicant rebuttal. PatRe comprises 480 real-world cases and supports both oracle and retrieval-simulated evaluation settings. Our benchmark reframes patent examination as a dynamic, multi-turn process of justification and response. Extensive experiments across various LLMs reveal critical insights into model performance, including differences between proprietary and open-source models, as well as task asymmetries between examiner analysis and applicant-side rebuttal. These findings highlight both the potential and current limitations of LLMs in modeling complex, real-world legal reasoning and technical novelty judgment in patent examination. We release our code and dataset to facilitate future research on patent examination modeling.