ChatPaper.aiChatPaper

PRvL: Quantificazione delle Capacità e dei Rischi dei Modelli Linguistici di Grande Scala per la Redazione delle Informazioni Personali Identificabili

PRvL: Quantifying the Capabilities and Risks of Large Language Models for PII Redaction

August 7, 2025
Autori: Leon Garza, Anantaa Kotal, Aritran Piplai, Lavanya Elluri, Prajit Das, Aman Chadha
cs.AI

Abstract

La redazione delle Informazioni Personali Identificabili (PII) da testi non strutturati è fondamentale per garantire la privacy dei dati in ambiti regolamentati. Mentre approcci precedenti si sono basati su sistemi basati su regole e modelli di Riconoscimento di Entità Nominate (NER) specifici per dominio, questi metodi non riescono a generalizzare tra formati e contesti. I recenti progressi nei Modelli Linguistici di Grande Dimensione (LLM) offrono un'alternativa promettente, ma l'effetto delle scelte architetturali e di addestramento sulle prestazioni di redazione rimane poco esplorato. Gli LLM hanno dimostrato forti prestazioni in compiti che richiedono una comprensione contestuale del linguaggio, inclusa la redazione delle PII in testi liberi. Studi precedenti suggeriscono che, con un adattamento appropriato, gli LLM possono diventare efficaci apprenditori contestuali della privacy. Tuttavia, le conseguenze delle scelte architetturali e di addestramento per la Redazione delle PII rimangono poco esplorate. In questo lavoro, presentiamo un'analisi completa degli LLM come sistemi di Redazione delle PII che preservano la privacy. Valutiamo una gamma di architetture LLM e strategie di addestramento per la loro efficacia nella Redazione delle PII. La nostra analisi misura le prestazioni di redazione, la preservazione semantica e la fuoriuscita di PII, e confronta questi risultati con la latenza e il costo computazionale. I risultati forniscono indicazioni pratiche per configurare redattori basati su LLM che siano accurati, efficienti e consapevoli della privacy. Per supportare la riproducibilità e il dispiegamento nel mondo reale, rilasciamo PRvL, una suite open-source di modelli fine-tuned e strumenti di valutazione per la Redazione delle PII a scopo generale. PRvL è interamente costruito su LLM open-source e supporta molteplici impostazioni di inferenza per flessibilità e conformità. È progettato per essere facilmente personalizzabile per diversi domini e completamente operabile all'interno di ambienti sicuri e autogestiti. Ciò consente ai proprietari dei dati di eseguire redazioni senza fare affidamento su servizi di terze parti o esporre contenuti sensibili al di fuori della propria infrastruttura.
English
Redacting Personally Identifiable Information (PII) from unstructured text is critical for ensuring data privacy in regulated domains. While earlier approaches have relied on rule-based systems and domain-specific Named Entity Recognition (NER) models, these methods fail to generalize across formats and contexts. Recent advances in Large Language Models (LLMs) offer a promising alternative, yet the effect of architectural and training choices on redaction performance remains underexplored. LLMs have demonstrated strong performance in tasks that require contextual language understanding, including the redaction of PII in free-form text. Prior work suggests that with appropriate adaptation, LLMs can become effective contextual privacy learners. However, the consequences of architectural and training choices for PII Redaction remain underexplored. In this work, we present a comprehensive analysis of LLMs as privacy-preserving PII Redaction systems. We evaluate a range of LLM architectures and training strategies for their effectiveness in PII Redaction. Our analysis measures redaction performance, semantic preservation, and PII leakage, and compares these outcomes against latency and computational cost. The results provide practical guidance for configuring LLM-based redactors that are accurate, efficient, and privacy-aware. To support reproducibility and real-world deployment, we release PRvL, an open-source suite of fine-tuned models, and evaluation tools for general-purpose PII Redaction. PRvL is built entirely on open-source LLMs and supports multiple inference settings for flexibility and compliance. It is designed to be easily customized for different domains and fully operable within secure, self-managed environments. This enables data owners to perform redactions without relying on third-party services or exposing sensitive content beyond their own infrastructure.
PDF22August 8, 2025