每日精选AI研究论文及翻译
基于扩散的大型语言模型(dLLMs)近期作为自回归LLMs的强大替代方案崭露头角,凭借并行解码和双向建模提供了更快的推理速度和更高的交互性。然而,尽管在代码生成和文本填充方面表现出色,我们发现了一个根本性的安全隐患:现有的对齐机制未能有效保护dLLMs免受上下文感知、掩码输入对抗性提示的攻击,暴露了新的脆弱性。为此,我们提出了DIJA,这是首个系统性研究并针对dLLMs独特安全弱点的越狱攻击框架。具体而言,DIJA构建了对抗性的交错掩码文本提示,利用dLLMs的文本生成机制,即双向建模和并行解码。双向建模促使模型为掩码部分生成上下文一致的输出,即便内容有害;而并行解码则限制了模型对不安全内容的动态过滤和拒绝采样。这导致标准对齐机制失效,使得在对齐调优的dLLMs中,即便提示中直接暴露了有害行为或不安全指令,仍能生成有害的补全内容。通过全面实验,我们证明DIJA显著优于现有越狱方法,揭示了dLLM架构中一个先前被忽视的威胁面。值得注意的是,我们的方法在Dream-Instruct上实现了高达100%的关键词ASR,在JailbreakBench上以评估者ASR超越最强基线ReNeLLM达78.5%,并在StrongREJECT得分上高出37.7分,且无需在越狱提示中重写或隐藏有害内容。我们的发现强调了重新思考这一新兴语言模型类别安全对齐的迫切需求。代码已发布于https://github.com/ZichenWen1/DIJA。
俄语语音合成面临独特挑战,包括元音弱化、辅音清化、多变的重音模式、同形异义词歧义以及不自然的语调。本文介绍了Balalaika,一个包含超过2000小时录音室品质俄语语音的全新数据集,并配有详尽的文本标注,涵盖标点符号和重音标记。实验结果表明,基于Balalaika训练的模型在语音合成与增强任务上均显著优于使用现有数据集训练的模型。我们详细阐述了数据集构建流程、标注方法及对比评估结果。
我们推出Franca(发音为Fran-ka):自由之选;这是首个完全开源(数据、代码、权重)的视觉基础模型,其性能不仅媲美,而且在许多情况下超越了当前最先进的专有模型,如DINOv2、CLIP、SigLIPv2等。我们的方法基于一个受Web-SSL启发的透明训练流程,并采用公开可用的数据:ImageNet-21K和ReLAION-2B的子集。除了模型发布,我们还解决了自监督学习(SSL)聚类方法中的关键限制。尽管现代模型依赖通过Sinkhorn-Knopp等聚类算法将图像特征分配到大型码本中,但它们未能充分考虑聚类语义中的固有模糊性。为此,我们引入了一种基于嵌套俄罗斯套娃表示的多头聚类投影器,该设计在保持模型规模不变的同时,逐步将特征细化为更精细的聚类,实现了性能与内存效率的双重提升。此外,我们提出了一种新颖的位置解耦策略,明确地从密集表示中移除位置偏差,从而改善了语义内容的编码。这一系列改进在多个下游基准测试中带来了持续的性能提升,证明了更纯净特征空间的价值。我们的贡献为透明、高性能的视觉模型设立了新标准,并为更广泛的AI社区开辟了通向更可复现、更通用基础模型的道路。代码和模型检查点可在https://github.com/valeoai/Franca获取。
在大语言模型(LLMs)时代,对齐问题已成为追求更可靠、可控且强大的机器智能过程中一个基础而富有挑战性的课题。近期推理模型与对话式AI系统的成功,凸显了强化学习(RL)在提升这些系统中的关键作用,进而推动了RL与LLM对齐交叉领域研究兴趣的激增。本文通过逆向强化学习(IRL)的视角,全面回顾了LLM对齐领域的最新进展,着重强调了应用于LLM对齐的RL技术与传统RL任务中技术之间的区别。特别是,我们强调了从人类数据构建神经奖励模型的必要性,并探讨了这一范式转变在理论与实际中的意义。首先,我们介绍RL的基本概念,为不熟悉该领域的读者奠定基础。随后,我们审视了这一研究议程的最新进展,讨论了在LLM对齐中实施IRL所面临的关键挑战与机遇。除方法论考量外,我们还探讨了实践层面,包括数据集、基准测试、评估指标、基础设施以及计算高效的训练与推理技术。最后,我们从稀疏奖励RL的文献中汲取洞见,识别出开放性问题及潜在的研究方向。通过综合多项研究的成果,我们旨在为该领域提供一个结构化且批判性的概览,突出未解决的挑战,并勾勒出通过RL与IRL技术改进LLM对齐的广阔前景。
从单张图像中分离内容与风格,即内容-风格分解(CSD),能够实现提取内容的再情境化与提取风格的再风格化,为视觉合成提供了更大的创作灵活性。尽管近期的个性化方法已探索了显式内容与风格的分解,但这些方法仍主要针对扩散模型设计。与此同时,视觉自回归建模(VAR)作为一种具有下一尺度预测范式的有前景替代方案崭露头角,其性能可与扩散模型相媲美。本文探讨了将VAR作为CSD生成框架的潜力,利用其逐尺度生成过程以提升分解效果。为此,我们提出了CSD-VAR,一种新颖的方法,引入了三大关键创新:(1) 一种尺度感知的交替优化策略,通过将内容与风格表示与其各自尺度对齐来增强分离效果;(2) 一种基于SVD的校正方法,以减少内容向风格表示的泄露;(3) 一种增强型键值(K-V)记忆机制,以强化内容身份的保持。为了对该任务进行基准测试,我们引入了CSD-100,这是一个专为内容-风格分解设计的数据集,包含以多种艺术风格呈现的多样化主题。实验表明,CSD-VAR在内容保持与风格化保真度上均优于现有方法,展现了卓越的性能。
本文聚焦于一体化多模态大语言模型(MLLMs),这类模型将视觉编码与语言解码整合于单一架构之中。现有的一体化MLLM结构及预训练策略常面临优化不稳定与灾难性遗忘的挑战。针对这些问题,我们的核心思路是在预训练的大语言模型中嵌入一个新的视觉参数空间,通过增量调优实现从噪声数据中稳定学习视觉知识。基于此原则,我们首先推出了Mono-InternVL,这是一种先进的一体化MLLM,它通过多模态专家混合架构集成了一组视觉专家。此外,我们为Mono-InternVL设计了一种创新的内生视觉预训练方法(EViP),通过渐进式学习最大化其视觉能力。Mono-InternVL在性能上可与现有MLLMs媲美,但数据成本相对较高。因此,我们进一步推出了Mono-InternVL-1.5,这是一种成本更低、性能更强的一体化MLLM,配备了改进的EViP(EViP++)。EViP++为Mono-InternVL-1.5引入了额外的视觉注意力专家,并以高效方式重组了预训练过程。在推理阶段,它包含一个融合的CUDA内核,以加速其专家混合操作。凭借这些设计,Mono-InternVL-1.5显著降低了训练与推理成本,同时保持了与Mono-InternVL相当的竞争力。为评估我们的方法,我们在15个基准测试上进行了广泛实验。结果显示,Mono-InternVL在15个基准中的12个上超越了现有的一体化MLLMs,例如在OCRBench上较Emu3提升了114分。与模块化对应模型InternVL-1.5相比,Mono-InternVL-1.5在保持相似多模态性能的同时,首词延迟最多减少了69%。代码与模型已发布于https://github.com/OpenGVLab/Mono-InternVL。
掩码标记预测已成为跨语言、视觉和语音领域的一项强大预训练目标,有望通过单一预训练任务统一这些多样化的模态。然而,其在通用音频理解中的应用仍显不足,BEATs是唯一显著的实例。由于缺乏开源预训练代码,BEATs的改进有限。此外,BEATs仅在AudioSet上训练,限制了其在下游任务中的广泛适用性。为填补这些空白,我们推出了OpenBEATs,一个开源框架,通过多领域音频预训练扩展了BEATs。我们在六类任务、二十五数据集及三个音频领域(包括音频问答、蕴含和字幕生成等音频推理任务)上进行了全面评估。OpenBEATs在六个生物声学数据集、两个环境声音数据集及五个推理数据集上取得了最先进的性能,以仅四分之一参数量的模型超越了数十亿参数规模的模型。这些结果证明了多领域数据集及掩码标记预测任务在学习通用音频表示方面的有效性。为促进进一步研究与可复现性,我们在https://shikhar-s.github.io/OpenBEATs上公开了所有预训练与评估代码、预训练及微调检查点,以及训练日志。
多模态大语言模型(MLLMs)在跨模态理解方面取得了革命性进展,但仍面临幻觉问题——即生成与视觉输入相矛盾的虚构内容。现有的幻觉缓解方法要么计算成本过高,要么导致训练数据与模型输出之间的分布不匹配。我们揭示了一个关键发现:幻觉主要出现在文本生成的早期阶段,并随后续输出传播。为此,我们提出了**SENTINEL**(**S**entence-level **E**arly i**N**tervention **T**hrough **IN**-domain pr**E**ference **L**earning)框架,该框架无需依赖人工标注。具体而言,我们首先通过迭代采样模型输出、利用两个开放词汇检测器交叉验证对象存在性,并将句子分类为幻觉/非幻觉类别,从而自举高质量域内偏好对。随后,我们使用上下文一致的正样本和幻觉负样本迭代构建上下文感知的偏好数据。最后,我们采用上下文感知偏好损失(C-DPO)训练模型,该损失强调在幻觉最初显现的句子级别进行判别学习。实验结果表明,与原始模型相比,SENTINEL能够减少超过90%的幻觉,并在幻觉基准测试和通用能力基准测试上均优于先前的最先进方法,展现了其优越性和泛化能力。模型、数据集和代码可在https://github.com/pspdada/SENTINEL获取。
作为现代信息传播的主要媒介,社交网络服务(SNS)经历了迅猛发展,这为平台内容管理和互动质量提升带来了重大挑战。近期,大语言模型(LLMs)的发展提供了潜在的解决方案,但现有研究多集中于孤立任务,不仅面临单一场景下数据扩展效益递减的问题,还难以灵活适应多样化的现实情境。为应对这些挑战,我们推出了RedOne,一款专为SNS设计的领域特定大语言模型,旨在突破单任务基线的性能瓶颈,为SNS构建一个全面的基础。RedOne通过包含持续预训练、监督微调和偏好优化的三阶段训练策略开发,并利用大规模真实世界数据集。经过广泛实验,RedOne不仅保持了强大的通用能力,还在8项主要SNS任务上平均提升达14.02%,在SNS双语评估基准上提升7.56%,相较于基础模型。此外,在线测试显示,RedOne在有害内容检测中的曝光率降低了11.23%,在帖子浏览搜索中的点击页面率提升了14.95%,相较于单任务微调的基线模型。这些成果确立了RedOne作为SNS领域特定大语言模型的强大地位,展现了其在多样化任务中的卓越泛化能力及在现实场景中的广阔应用前景。
大型语言模型的评估是一项复杂的任务,已有多种方法被提出。最常见的是使用自动化基准测试,其中大型语言模型需要回答不同主题的多项选择题。然而,这种方法存在一定的局限性,最令人担忧的是与人类判断的相关性较差。另一种方法是让人类评估大型语言模型,但这带来了可扩展性问题,因为需要评估的模型数量庞大且不断增长,使得基于招募评估者并让他们对模型响应进行排名的传统研究变得不切实际(且成本高昂)。另一种替代方法是使用公共竞技场,例如流行的LM竞技场,任何用户都可以自由地在任何问题上评估模型,并对两个模型的响应进行排名,结果随后被整理成模型排名。大型语言模型的一个日益重要的方面是它们的能耗,因此,评估能源意识如何影响人类选择模型的决策具有重要意义。在本文中,我们介绍了GEA,即生成能源竞技场,这是一个在评估过程中纳入模型能耗信息的竞技场。我们还展示了使用GEA获得的初步结果,表明对于大多数问题,当用户了解能耗时,他们更倾向于选择更小、更节能的模型。这表明,对于大多数用户交互而言,更复杂、性能更优的模型所带来的额外成本和能耗,并未带来足以证明其使用合理性的响应质量提升。
本研究提出了一种针对波动市场的定量风险管理框架,特别聚焦于应用于富时100指数的期望分位数方法。传统的风险度量指标,如风险价值(VaR),在市场压力时期表现出显著局限性,这在2008年金融危机及随后的市场动荡期间得到了验证。本研究开发了一种先进的基于期望分位数的框架,通过提供对尾部损失更高的敏感度及在极端市场条件下的更好稳定性,弥补了传统分位数方法的不足。研究采用了涵盖二十年富时100指数收益率的数据集,包含了高波动性、市场崩盘及复苏阶段。我们的方法引入了期望分位数回归模型的新颖数学公式、利用时间序列分析增强的阈值确定技术,以及稳健的回测程序。实证结果表明,基于期望分位数的风险价值(EVaR)在不同置信水平和市场条件下均优于传统VaR度量。该框架在波动时期表现出色,具有降低模型风险和提升预测准确性的优势。此外,研究为金融机构制定了实际实施指南,并为监管合规和投资组合管理提供了基于证据的建议。这些发现对金融风险管理文献做出了重要贡献,并为应对波动市场环境的从业者提供了实用工具。