每日精選AI研究論文及翻譯
大型語言模型(LLMs)能生成流暢複雜的輸出,卻常無法識別自身錯誤與幻覺。現有方法通常依賴外部評判器、多樣本一致性或基於文本的自我批判,這些方式要么需額外計算成本,要么與真實正確性關聯微弱。我們提出關鍵問題:LLMs能否透過推論過程中審視內部狀態來預測自身失誤?我們引入Gnosis——一種輕量級自我覺察機制,使凍結參數的LLMs能透過解碼隱藏狀態與注意力模式的訊號,實現內在自我驗證。Gnosis被動觀測內部軌跡,將其壓縮為固定預算的描述符,並以可忽略的推理成本預測正確性,僅增加約500萬參數且運算獨立於序列長度。在數學推理、開放域問答和學術知識基準測試中,針對1.7B至20B參數的凍結主幹模型,Gnosis在準確度與校準度上均持續超越強力內部基線與大型外部評判器。此外,該機制能零樣本泛化至部分生成結果,實現對失敗軌跡的早期檢測與計算感知控制。這些結果表明,可靠的正確性線索內在於生成過程,且無需外部監督即可高效提取。
我們推出NextFlow——一個基於6萬億交錯式圖文離散標記訓練的統一解碼器自回歸變換器。通過在統一自回歸架構內整合視覺表徵,NextFlow原生激發多模態理解與生成能力,實現圖像編輯、交錯內容生成及視頻生成的突破。針對文本嚴格序列化與圖像本質層次化的模態差異,我們保留文本的下一標記預測機制,而對視覺生成採用下一尺度預測方法。這一設計突破傳統光柵掃描模式,僅需5秒即可生成1024x1024分辨率圖像,速度超越同類自回歸模型數個量級。我們通過穩健的訓練方案解決多尺度生成的不穩定性,並引入強化學習前綴調優策略。實驗表明,NextFlow在統一模型中實現最先進性能,其視覺質量可媲美專業擴散模型基準。
本技術報告介紹由LG AI Research開發的大規模多語言語言模型K-EXAONE。該模型基於混合專家架構構建,總參數量達236B,推理時激活參數為23B,支援256K詞元的上下文長度,並涵蓋韓語、英語、西班牙語、德語、日語及越南語等六種語言。我們透過橫跨推理、智能代理、通用能力、韓語專項及多語言能力的綜合基準測試對K-EXAONE進行評估。結果顯示,K-EXAONE在各項評測中表現與同規模開源模型相當。K-EXAONE以「推動人工智能實現更美好生活」為設計理念,定位為適用於廣泛工業與研究場景的強效專有AI基礎模型。
影片人臉交換技術需要將來源身份無縫注入目標影片,同時精準保持原始姿態、表情、光照、背景與動態資訊。現有方法難以在維持時間一致性的前提下,同時兼顧身份相似度與屬性保留。為解決此難題,我們提出完整框架,將影像人臉交換技術的優勢無縫遷移至影片領域。我們首先創建新型資料處理流程SyncID-Pipe,通過預訓練身份錨定影片合成器並結合影像人臉交換模型,構建雙向身份四元組進行顯式監督。基於配對資料,我們提出首個基於擴散轉換器的DreamID-V框架,採用核心的模態感知調控模組來實現多模態條件的判別性注入。同時提出合成至真實的課程學習機制與身份連貫強化學習策略,以提升挑戰性場景下的視覺真實感與身份一致性。針對現有基準資料不足的問題,我們建立IDBench-V綜合基準集,涵蓋多樣化場景。大量實驗表明DreamID-V勝過現有頂尖方法,並展現卓越的泛化能力,可無縫適應各類人臉交換相關任務。
視覺生成領域主要由三大範式主導:自回歸模型、擴散模型以及視覺自回歸模型。與自回歸和擴散模型不同,VAR模型在生成步驟中處理異質性輸入結構,這導致嚴重的非同步策略衝突。該問題在強化學習情境下尤為突出,會引發訓練不穩定與對齊效果欠佳。為解決此問題,我們提出一個新穎框架,通過顯式管理這些衝突來增強群組相對策略優化。我們的方法整合了三項協同組件:1)用於引導早期生成階段的穩定化中間獎勵;2)實現精確信度分配的動態時間步重加權機制;3)基於獎勵反饋學習原理設計的新型遮罩傳播算法,可在空間與時間維度上隔離優化效應。相較於原始GRPO基準,我們的方法在生成樣本質量與目標對齊度方面展現顯著提升,為VAR模型實現了強健且高效的優化。
基於線上強化學習的擴散模型微調已展現出提升文字-影像對齊能力的巨大潛力。然而,由於視覺任務中精確定義真實目標仍具挑戰性,模型通常僅能透過部分反映真實目標的代理獎勵進行優化。這種不匹配常導致獎勵破解現象——代理分數上升的同時,真實影像品質惡化且生成多樣性崩潰。現有解決方案通常透過對參考策略添加正則化來防止獎勵破解,但這會犧牲取樣效率並阻礙對新高獎勵區域的探索,因為參考策略往往非最優。為平衡取樣效率、有效探索與獎勵破解緩解這三重需求,我們提出具門控自適應正則化的多樣性感知優化框架(GARDO),該通用框架可兼容各類強化學習算法。我們的核心洞見在於:正則化無需全域應用,選擇性懲罰高不確定性樣本子集反而能顯著提升效能。針對探索難題,GARDO引入自適應正則化機制,定期更新參考模型以匹配線上策略能力,確保正則化目標的相關性。為解決強化學習中的模態崩潰問題,GARDO對兼具高品質與高多樣性的樣本實施獎勵放大,在不破壞優化穩定性的前提下激發模態覆蓋。跨多種代理獎勵與保留未見指標的大規模實驗表明,GARDO能有效緩解獎勵破解並提升生成多樣性,且無需犧牲取樣效率或探索能力,彰顯其效能與魯棒性。
我們提出VINO——一個統一的視覺生成器,能在單一框架內實現圖像與視頻的生成與編輯。有別於依賴針對特定任務的模型或獨立模組處理不同模態,VINO採用共享的擴散模型骨幹,使其能同時以文本、圖像和視頻作為條件輸入,從而在單一模型下支援廣泛的視覺創作與編輯任務。具體而言,VINO將視覺語言模型(VLM)與多模態擴散轉換器(MMDiT)相結合,將多模態輸入編碼為交錯的條件標記,進而引導擴散過程。此設計支援多參考基礎錨定、長指令序列跟蹤,以及靜態與動態內容間的一致性身份保持,同時避免引入模態專用的架構組件。為訓練此統一系統,我們設計了多階段訓練流程,逐步將基礎視頻生成模型擴展為能同時處理圖像與視頻輸入輸出的統一多任務生成器。在各類生成與編輯基準測試中,VINO展現出卓越的視覺品質、精準的指令跟隨能力、改進的參考與屬性保持效果,以及更可控的多身份編輯能力。我們的成果揭示了可擴展統一視覺生成的可行路徑,並驗證了交錯式上下文計算作為通用視覺創作基礎的潛力。
實現持久性大規模三維視覺幾何理解的宏偉願景,長期受制於可擴展性與長期穩定性之間的不可調和矛盾。儘管離線模型(如VGGT)展現了令人振奮的幾何建模能力,但其批處理特性使其無法適用於即時系統。雖然串流架構是為即時運算設計的解決方案,但現有方法要么無法支援真正無限時長的輸入,要么在長序列中遭遇災難性的漂移問題。我們通過InfiniteVGGT突破這一長期困境——這是一種因果視覺幾何轉換器,通過有界卻自適應且持續具表達力的KV快取機制,實現了滾動記憶體的操作化。基於此,我們設計了無需訓練、與注意力機制無關的修剪策略,智能淘汰過時信息,隨著每幀新數據的輸入有效推進記憶體的「滾動」。完全兼容FlashAttention的InfiniteVGGT最終化解了此矛盾,在實現無限時長串流處理的同時,其長期穩定性更超越現有串流方法。對此類系統的終極考驗在於其面對真正無限時長的性能表現,而由於極長期連續基準數據的缺失,該能力一直無法被嚴格驗證。為填補這一關鍵空白,我們推出Long3D基準測試,首次實現對約10,000幀連續序列的三維幾何估計進行嚴謹評估,為未來長期三維幾何理解研究提供權威驗證平台。代碼已開源於:https://github.com/AutoLab-SAI-SJTU/InfiniteVGGT
我們從推理時間縮放的角度,研究如何讓大型語言模型(LLMs)處理任意長度的提示。我們提出遞歸語言模型(RLMs),這是一種通用推理策略,將長提示視為外部環境的一部分,允許LLM以程式化方式檢查、分解提示片段,並對其進行遞歸自我調用。研究發現,RLMs能成功處理超出模型上下文窗口兩個數量級的輸入,且即使在較短提示上,於四項多樣化的長上下文任務中,其表現質量也顯著超越基礎LLMs和常見的長上下文框架,同時保持可比(或更低)的單次查詢成本。
本研究推出Falcon-H1R,這是一個70億參數的推理優化模型,證明了小型語言模型(SLM)同樣能實現具競爭力推理性能的可行性。Falcon-H1R的突出特點在於其參數效率——在各種推理密集型基準測試中,持續達到或超越參數量為其2至7倍的最先進推理模型性能。這些成果凸顯了精細數據策劃與定向訓練策略(通過高效監督微調與強化學習規模化)的重要性,能在不增加模型規模的前提下實現顯著性能提升。更進一步,Falcon-H1R透過結合更快的推理速度(藉由其混合並行架構設計)、令牌效率與更高準確率,推進了推理效率的三維極限。這種獨特組合使Falcon-H1R-7B成為擴展先進推理系統的實用骨幹,特別適用於需要大量思維鏈生成與並行測試時規模化的場景。憑藉最新引入的DeepConf方法,Falcon-H1R實現了最先進的測試時規模化效率,在準確率與計算成本方面均帶來顯著改善。由此證明,緊湊模型透過定向模型訓練與架構選擇,能夠提供強健且可擴展的推理性能。
我們推出Talk2Move——一個基於強化學習(RL)的擴散框架,用於實現場景內物體基於文本指令的空間變換。通過自然語言對場景中的物體進行空間操作,對多模態生成系統而言是一項挑戰。現有基於文本的操作方法雖能調整外觀或風格,但由於缺乏配對監督數據和像素級優化的限制,難以實現物體層級的幾何變換(例如平移、旋轉或縮放物體)。Talk2Move採用群組相對策略優化(GRPO),通過輸入圖像和輕量級文本變體生成多樣化推演軌跡來探索幾何動作,無需耗費高昂成本的配對數據。空間獎勵引導模型將幾何變換與語言描述對齊,同時離策略步進評估和主動步進取樣通過聚焦於信息豐富的變換階段來提升學習效率。此外,我們設計了以物體為中心的空間獎勵機制,直接評估位移、旋轉和縮放行為,從而實現可解釋且連貫的變換。在精選基準測試上的實驗表明,Talk2Move能實現精確、一致且語義保真的物體變換,在空間準確性和場景連貫性上均優於現有的文本引導編輯方法。
儘管信心估計是緩解大型語言模型幻覺現象的潛在方向,現有研究主要聚焦於單輪對話場景。在多輪對話中,模型信心的動態變化機制——即語境持續累積且模糊性逐步消解的過程——仍屬探索不足的領域。可靠的多輪信心估計對自主智能體、人機協同系統等下游應用至關重要。本研究首次對多輪交互中的信心估計進行系統性探討,基於兩大核心訴求建立形式化評估框架:單輪校準度與信息增量下的信心單調性。為此我們引入創新指標(包括長度歸一化的預期校準誤差InfoECE)及受控評估數據集生成的「提示者-猜測者」新範式。實驗表明,主流信心估計技術在多輪對話中難以維持校準度與單調性。我們提出的基於邏輯值的探針P(Sufficient)雖取得相對更優性能,但該任務遠未徹底解決。本研究成果為開發更可靠、可信的對話智能體奠定了方法論基礎。
儘管大型語言模型(LLM)是強大的嵌入骨幹,其在免訓練場景中的應用仍面臨兩大結構性挑戰:因果注意力機制限制了早期令牌獲取後續上下文的能力,而下一令牌預測目標則使表徵偏向生成任務而非語義壓縮。為解決這些局限,我們提出KV-Embedding框架,旨在激活凍結LLM的潛在表徵能力。該方法基於一項關鍵觀察:每一層最終令牌的鍵值(KV)狀態編碼了序列的壓縮視圖。通過將這些狀態重新路由為前置符號,我們使所有令牌能在單次前向傳播中訪問序列級上下文。為確保模型無關的適用性,我們引入了基於內在維度的自動化層選擇策略。在Qwen、Mistral和Llama骨幹網絡上進行的MTEB評估表明,KV-Embedding相比現有免訓練基線最高提升10%性能,並在長達4,096令牌的序列上保持穩健表現。這些結果證明,內部狀態操縱為輸入修改提供了高效替代方案,我們希望此工作能推動針對表徵學習的LLM內部機制進一步探索。
我们提出CPPO(对比感知策略优化方法),用于微调视觉语言模型。虽然强化学习在语言模型的推理能力方面取得了进展,但将其扩展到多模态推理需要同时提升感知与推理能力。先前研究主要通过显式感知奖励应对这一挑战,但分离感知标记与推理标记存在困难——需要额外的大语言模型支持、真实标注数据、通过策略模型强制分离感知与推理,或对所有输出标记 indiscriminately 施加奖励。CPPO通过分析输入图像扰动下模型输出的熵值变化来检测感知标记,进而将对比感知损失引入强化学习目标函数:该损失函数要求在信息保留型扰动下保持输出一致性,在信息消除型扰动下体现敏感性。实验表明,CPPO在避免使用额外模型的前提下超越了既有感知奖励方法,使训练更具效率与可扩展性。
基于多视角图像的人体网格重建面临一个根本性挑战:真实世界数据集包含不完美的真实标注,会导致模型训练产生偏差;而具有精确标注的合成数据则存在领域差异问题。本文提出DiffProxy这一创新框架,通过生成多视角一致的人体代理模型来解决网格重建问题。该框架的核心在于利用基于扩散模型的生成先验,弥合合成数据训练与真实场景泛化之间的鸿沟。其关键创新包括:(1) 采用多条件机制生成多视角一致、像素对齐的人体代理;(2) 引入支持灵活视觉提示的手部细化模块以增强局部细节;(3) 设计不确定性感知的测试时缩放方法,提升优化过程中对挑战性案例的鲁棒性。这些设计确保网格重建过程能有效利用合成数据的精确真值标注和扩散管道的生成优势。仅使用合成数据训练的DiffProxy在五个真实世界基准测试中均达到最先进性能,尤其在存在遮挡和局部视角的挑战性场景中展现出强大的零样本泛化能力。项目页面:https://wrk226.github.io/DiffProxy.html
随着大型语言模型在从医疗到金融等高风险企业应用中的部署,确保其遵循组织特定政策已变得至关重要。然而现有安全评估仅关注普适性危害。我们提出COMPASS(企业/组织政策对齐评估)框架,这是首个系统化评估LLM是否遵守组织白名单与黑名单政策的方案。通过应用于八大行业场景,我们生成并验证了5,920个测试查询,既检验常规合规性,又通过策略性设计的边缘案例评估对抗鲁棒性。在对七个前沿模型的评估中,我们发现根本性不对称现象:模型能可靠处理合法请求(准确率>95%),却在执行禁令时出现灾难性失效,仅能拒绝13-40%的对抗性黑名单违规行为。这些结果表明当前LLM缺乏政策关键型部署所需的鲁棒性,确立了COMPASS作为组织级AI安全必备评估框架的地位。
半监督遥感图像语义分割为缓解详尽标注负担提供了前景广阔的解决方案,但该技术本质上受困于伪标签漂移问题——这种因确认偏误导致训练过程中误差累积的现象。本研究提出Co2S,一种融合视觉语言模型与自监督模型先验知识的稳定半监督遥感分割框架。具体而言,我们构建了异构双学生架构,该架构包含分别基于预训练CLIP和DINOv3初始化的两种差异化ViT视觉基础模型,以有效抑制误差累积和伪标签漂移。为协同整合这些异质先验,我们引入显隐式语义协同引导机制:利用文本嵌入和可学习查询分别提供显式与隐式类别级引导,共同增强语义一致性。此外,开发了全局-局部特征协同融合策略,将CLIP捕获的全局上下文信息与DINOv3提取的局部细节有效融合,使模型能生成高精度分割结果。在六个主流数据集上的大量实验表明,该方法在不同数据划分协议和多样化场景下均能保持领先性能,彰显其优越性。项目页面详见https://xavierjiezou.github.io/Co2S/。
我们提出SWE-Lego——一种旨在实现软件工程(SWE)问题解决领域最先进性能的监督微调(SFT)方案。与依赖复杂训练范式(如中期训练、SFT、强化学习及其组合)的主流方法不同,我们探索如何将轻量级纯SFT方法在SWE任务中的性能推向极致。SWE-Lego包含三个核心构建模块,关键发现总结如下:1)SWE-Lego数据集,包含3.2万个高质量任务实例和1.8万条已验证轨迹,通过真实数据与合成数据的结合实现质量与数量的互补;2)融合错误掩码与难度分级课程的改进型SFT流程,可显著提升动作质量与整体性能。实证结果表明,仅凭这两个构建模块,SFT就能使SWE-Lego模型在同类规模的开源模型中达到最先进水平——在SWE-bench Verified基准上,SWE-Lego-Qwen3-8B达到42.2%,SWE-Lego-Qwen3-32B达到52.6%。3)我们在SFT基础上进一步评估并改进了测试时扩展(TTS)策略。基于训练有素的验证器,SWE-Lego模型能获得显著提升:例如在TTS@16设置下,8B和32B模型分别从42.2%提升至49.6%、从52.6%提升至58.8%。
在学术评审中,新颖性评估虽至关重要却充满挑战,评审人需将投稿与海量且快速更新的文献进行比对。本报告推出OpenNovelty——一个基于大语言模型的智能代理系统,通过四阶段流程实现透明化、证据驱动的新颖性分析:(1)提取核心任务与贡献声明以生成检索查询;(2)通过语义搜索引擎基于查询获取相关前人研究;(3)构建核心任务相关研究的层级分类体系,并对每项贡献进行全文级对比;(4)整合所有分析形成结构化新颖性报告,附明确引证与证据片段。与简单基于大语言模型的方法不同,OpenNovelty将所有评估锚定于真实检索到的论文,确保判断可验证。我们将该系统部署于500余篇ICLR 2026投稿,所有报告公开于项目网站,初步分析表明其能有效识别相关前人研究(包括作者可能忽略的密切关联文献)。OpenNovelty旨在为科研社群提供可扩展工具,推动公平、一致且有据可依的同行评审。
我们提出"物质音乐学"这一生成框架,将物质的层级结构与音乐的创作逻辑相联结。在蛋白质、蜘蛛网和火焰动力学中,振动与建筑原理以音阶体系、和声进程和长程音乐形式反复呈现。通过可逆映射——从分子光谱到乐音,从三维网络到可演奏乐器——我们揭示声音如何作为科学探针,实现认知反转:聆听成为观照方式,音乐创作化为物质蓝图。这些映射发掘深时:源自飞秒分子振动或十亿年演化史的模式变得可闻。我们主张,当约束无法在现有自由度内满足时,科学与艺术的新颖性便随之涌现,迫使可行构型空间扩展。选择性不完美提供了恢复连贯性与适应性平衡的机制。对全部2^12种音阶的穷举枚举给出量化支持:文化意义显著的体系聚集于中熵-中缺陷廊道,与霍尔-佩奇最优区间直接对应——后者正是中等缺陷密度使材料强度最大化。迭代这些映射在人类创造力与物理规律间催生创造性碰撞,当音乐结构遭遇演化约束时生成新信息。我们展示基于群体智能的AI模型如何创作出具有类人结构特征(如小世界连通性、模块化整合、长程连贯性)的音乐,提示了一条超越插值通向发明的路径。我们证明科学与艺术皆是约束下的世界构建行为,振动作为共享语法组织着跨尺度结构。
多标注者医学图像分割是一项重要的研究课题,但需要耗费高昂成本才能获取标注数据集。皮肤镜病灶成像技术使得人类专家和人工智能系统能够观察到常规临床照片无法辨别的形态学结构。然而目前尚缺乏包含标注者标签的大规模公开多标注者皮肤镜病灶分割数据集。我们推出ISIC MultiAnnot++——一个基于ISIC档案库图像的大型公开多标注者皮肤病灶分割数据集。该最终数据集包含17,684个分割掩模,覆盖14,967张皮肤镜图像,其中2,394张图像每张包含2-5个分割标注,使其成为当前最大的公开SLS数据集。此外,数据集还包含关于分割的元数据(包括标注者技能水平和分割工具),可支持标注者特异性偏好建模、标注者元数据分析等课题研究。我们对该数据集特征、整理的数据分区及共识分割掩模进行了分析。
地理基础模型(GFMs)在语义分割、分类和回归等多种下游任务中已被证明具有卓越性能。然而在基于Sen1Flood11数据集进行洪涝测绘的下游任务中,GFMs难以超越基线U-Net模型,这暴露出模型在捕捉关键局部细节方面的局限性。为此,我们提出Prithvi互补自适应融合编码器(CAFE),该架构将Prithvi GFM预训练编码器与卷积注意力模块(CAM)增强的并行CNN残差分支相结合。Prithvi-CAFE通过适配器实现Prithvi模型的快速高效微调,并与CNN特征进行多尺度、多层次融合,在保持长程依赖关系的同时捕获关键局部细节。我们在两个综合性洪涝测绘数据集(Sen1Flood11和FloodPlanet)上取得了最先进的结果:在Sen1Flood11测试数据中,Prithvi-CAFE(交并比83.41)优于原始Prithvi(82.50)及其他主流GFMs(TerraMind 82.90、DOFA 81.54、spectralGPT 81.02);在保留测试集上的提升更为显著,Prithvi-CAFE交并比达81.37,显著超越基线U-Net(70.57)和原始Prithvi(72.42)。在FloodPlanet数据集上,Prithvi-CAFE同样以64.70的交并比优于U-Net(60.14)、Terramind(62.33)、DOFA(59.15)和Prithvi 2.0(61.91)。我们提出的Prithvi-CAFE结构简洁而高效,对于需要融合多通道/多模态互补信息且局部细节至关重要的分割任务展现出强大潜力。代码已发布于https://github.com/Sk-2103/Prithvi-CAFE。
随着大型语言模型(LLM)智能体越来越多地承担高风险的自主决策任务,其推理过程的透明度已成为关键的安全问题。尽管思维链(CoT)提示技术能让智能体生成人类可读的推理轨迹,但这些轨迹究竟是模型输出的真实生成驱动因素,还是仅为事后归因的合理化解释,目前仍不明确。我们推出Ariadne项目——一个创新的可解释人工智能(XAI)框架,通过结构因果模型(SCM)和反事实逻辑来审计智能体推理的因果完整性。与依赖表层文本相似度的现有可解释性方法不同,Ariadne项目对中间推理节点实施硬干预(do-演算),系统性地进行逻辑反转、前提否定和事实主张逆转,以测量最终答案的因果敏感度(φ)。我们对前沿模型的实证研究揭示了持续存在的忠实性差距:定义并检测到一种普遍存在的故障模式“因果解耦”,智能体在事实和科学领域的违规密度(ρ)高达0.77。这些案例中,智能体在内部逻辑矛盾的情况下仍得出相同结论,证明其推理轨迹实为“推理剧场”,而决策过程实则受潜在参数先验支配。我们的研究结果表明,当前智能体架构本质上存在不忠实解释的倾向,为此我们提出将Ariadne评分作为衡量陈述逻辑与模型行动一致性的新基准。
文本到图像扩散模型可能生成有害或受版权保护的内容,这推动了对概念擦除技术的研究。然而,现有方法主要聚焦于从文本提示中擦除概念,忽视了在图像编辑和个性化生成等实际应用中日益重要的其他输入模态。这些模态可能成为攻击面,导致已擦除的概念绕过防御机制重新出现。为填补这一空白,我们提出M-ErasureBench——一个新颖的多模态评估框架,系统性地在三种输入模态(文本提示、学习嵌入和反转潜在表示)上对概念擦除方法进行基准测试。针对后两种模态,我们分别评估白盒与黑盒访问场景,共形成五种测试情境。分析表明,现有方法对文本提示能实现较强的擦除效果,但在学习嵌入和反转潜在表示场景下大多失效,其中白盒设置下的概念再现率(CRR)超过90%。为应对这些漏洞,我们提出IRECE(推理时概念擦除鲁棒性增强),这是一种即插即用模块,通过交叉注意力定位目标概念并在去噪过程中扰动相关潜在表示。实验证明,IRECE能持续恢复系统鲁棒性,在最具挑战性的白盒潜在反转场景下将CRR降低达40%,同时保持视觉质量。据我们所知,M-ErasureBench首次建立了超越文本提示的全面概念擦除基准。结合IRECE,我们的基准测试为构建更可靠的保护性生成模型提供了实用保障方案。