每日精選AI研究論文及翻譯
基於擴散的大型語言模型(dLLMs)近期作為自回歸LLMs的一種強大替代方案嶄露頭角,其通過並行解碼與雙向建模提供了更快的推理速度與更高的互動性。然而,儘管在代碼生成與文本填充方面表現出色,我們發現了一個根本性的安全隱患:現有的對齊機制未能有效保護dLLMs免受上下文感知、掩碼輸入的對抗性提示攻擊,從而暴露了新的脆弱性。為此,我們提出了DIJA,這是首個系統性研究並利用dLLMs獨特安全弱點的越獄攻擊框架。具體而言,DIJA構建了交錯掩碼文本的對抗性提示,這些提示利用了dLLMs的文本生成機制,即雙向建模與並行解碼。雙向建模促使模型為掩碼部分生成上下文一致的輸出,即便這些輸出有害;而並行解碼則限制了模型對不安全內容的動態過濾與拒絕採樣。這導致標準對齊機制失效,使得在對齊調優的dLLMs中,即便提示中直接暴露了有害行為或不安全指令,仍能生成有害的完成內容。通過全面實驗,我們證明DIJA顯著優於現有的越獄方法,揭示了dLLM架構中一個先前被忽視的威脅面。值得注意的是,我們的方法在Dream-Instruct上實現了高達100%的基於關鍵字的ASR,在JailbreakBench上以評估者為基礎的ASR超越了先前最強基線ReNeLLM達78.5%,在StrongREJECT得分上提升了37.7分,且無需在越獄提示中重寫或隱藏有害內容。我們的研究結果強調了重新思考這一新興語言模型類別中安全對齊的迫切需求。代碼已公開於https://github.com/ZichenWen1/DIJA。
俄語語音合成面臨著獨特的挑戰,包括元音弱化、輔音清化、可變的重音模式、同形異義詞的歧義性以及不自然的語調。本文介紹了Balalaika,這是一個包含超過2000小時錄音室品質俄語語音的新穎數據集,並配有全面的文本註釋,包括標點符號和重音標記。實驗結果表明,在語音合成和增強任務中,基於Balalaika訓練的模型顯著優於使用現有數據集訓練的模型。我們詳細闡述了數據集的構建流程、註釋方法以及比較評估的結果。
我們推出Franca(發音為Fran-ka):自由者;這是首個完全開源(數據、代碼、權重)的視覺基礎模型,其性能在多數情況下不僅匹配甚至超越了當前最先進的專有模型,如DINOv2、CLIP、SigLIPv2等。我們的方法基於一個受Web-SSL啟發的透明訓練流程,並使用公開可用的數據:ImageNet-21K和ReLAION-2B的子集。除了模型發布外,我們還解決了SSL聚類方法中的關鍵限制。現代模型依賴於通過如Sinkhorn-Knopp等聚類算法將圖像特徵分配給大型碼本,但未能考慮到聚類語義中的固有模糊性。為此,我們引入了一種基於嵌套Matryoshka表示的高效參數多頭聚類投影器。這一設計在不增加模型大小的情況下,逐步將特徵細化為更精細的聚類,實現了性能和內存效率的雙重提升。此外,我們提出了一種新穎的位置解耦策略,明確地從密集表示中移除位置偏差,從而改進了語義內容的編碼。這在多個下游基準測試中帶來了持續的性能提升,展示了更乾淨特徵空間的實用性。我們的貢獻為透明、高性能的視覺模型設立了新標準,並為更廣泛的AI社區開闢了一條通往更可重現和泛化的基礎模型之路。代碼和模型檢查點可在https://github.com/valeoai/Franca獲取。
在大規模語言模型(LLM)時代,對齊已成為追求更可靠、可控且能力更強的機器智能中的一個基礎性且具挑戰性的問題。近期推理模型與對話式人工智慧系統的成功,凸顯了強化學習(RL)在提升這些系統中的關鍵作用,從而推動了RL與LLM對齊交叉領域的研究興趣。本文透過逆向強化學習(IRL)的視角,全面回顧了LLM對齊的最新進展,強調了LLM對齊中採用的RL技術與傳統RL任務中的技術之間的區別。特別地,我們強調了從人類數據構建神經獎勵模型的必要性,並討論了這一範式轉變的形式與實際意義。我們首先介紹RL的基本概念,為不熟悉該領域的讀者奠定基礎。接著,我們檢視了這一研究議程的最新進展,討論了在LLM對齊中進行IRL的關鍵挑戰與機遇。除了方法論考量外,我們還探討了實際層面,包括數據集、基準、評估指標、基礎設施,以及計算效率高的訓練與推斷技術。最後,我們從稀疏獎勵RL的文獻中汲取見解,以識別未解問題與潛在的研究方向。透過綜合多樣化研究的發現,我們旨在提供該領域的結構化與批判性概述,強調未解決的挑戰,並勾勒出透過RL與IRL技術改進LLM對齊的未來研究方向。
從單一圖像中分離內容與風格,即內容風格分解(CSD),能夠重新情境化提取的內容並對提取的風格進行風格化處理,從而為視覺合成提供更大的創作靈活性。儘管最近的個性化方法已探索了顯式內容風格的分解,但它們仍主要針對擴散模型進行優化。與此同時,視覺自迴歸建模(VAR)作為一種具有下一尺度預測範式的有前景的替代方案,已展現出與擴散模型相當的性能。本文中,我們探索將VAR作為CSD的生成框架,利用其逐尺度的生成過程來提升分解效果。為此,我們提出了CSD-VAR,一種新穎的方法,引入了三項關鍵創新:(1)一種尺度感知的交替優化策略,將內容與風格表示與其各自的尺度對齊以增強分離效果,(2)一種基於SVD的校正方法,以減少內容洩漏到風格表示中的情況,(3)一種增強的鍵值(K-V)記憶機制,以加強內容身份的保留。為了對該任務進行基準測試,我們引入了CSD-100,這是一個專為內容風格分解設計的數據集,包含以多種藝術風格呈現的多樣化主題。實驗表明,CSD-VAR在內容保留和風格化保真度方面均優於先前的方法,取得了卓越的表現。
本文聚焦於單體多模態大語言模型(MLLMs),該模型將視覺編碼與語言解碼整合於單一模型之中。現有的單體MLLM結構與預訓練策略常面臨優化不穩定與災難性遺忘的問題。為應對這些挑戰,我們的核心思路是在預訓練的LLM中嵌入新的視覺參數空間,通過增量調優實現從噪聲數據中穩定學習視覺知識。基於此原則,我們首先提出了Mono-InternVL,這是一種先進的單體MLLM,它通過多模態專家混合架構整合了一組視覺專家。此外,我們為Mono-InternVL設計了一種創新的內生視覺預訓練(EViP),通過漸進學習最大化其視覺能力。Mono-InternVL在與現有MLLM的對比中展現了競爭力,但也伴隨著較高的數據成本。因此,我們進一步推出了Mono-InternVL-1.5,這是一個更經濟且更強大的單體MLLM,配備了改進的EViP(EViP++)。EViP++為Mono-InternVL-1.5引入了額外的視覺注意力專家,並以高效的方式重組了預訓練過程。在推理階段,它包含了一個融合的CUDA內核以加速其MoE操作。憑藉這些設計,Mono-InternVL-1.5顯著降低了訓練與推理成本,同時仍保持了與Mono-InternVL相當的性能。為評估我們的方法,我們在15個基準上進行了廣泛的實驗。結果顯示,Mono-InternVL在15個基準中的12個上超越了現有的單體MLLM,例如在OCRBench上相比Emu3提升了114分。與其模塊化對應版本InternVL-1.5相比,Mono-InternVL-1.5在實現相似多模態性能的同時,將首詞延遲降低了高達69%。代碼與模型已發佈於https://github.com/OpenGVLab/Mono-InternVL。
掩碼標記預測已成為跨語言、視覺和語音領域的一種強大預訓練目標,提供了通過單一預訓練任務統一這些多樣模態的潛力。然而,其在通用音頻理解中的應用仍未被充分探索,BEATs 是唯一顯著的例子。由於缺乏開源的預訓練代碼,BEATs 的修改有限。此外,BEATs 僅在 AudioSet 上進行訓練,限制了其在下游任務中的廣泛適用性。為解決這些不足,我們提出了 OpenBEATs,這是一個開源框架,通過多領域音頻預訓練擴展了 BEATs。我們在六種類型的任務、二十五個數據集和三個音頻領域中進行了全面評估,包括音頻問答、蘊涵和字幕生成等音頻推理任務。OpenBEATs 在六個生物聲學數據集、兩個環境聲音數據集和五個推理數據集上達到了最先進的性能,在參數規模僅為其四分之一的條件下,表現優於參數超過十億的模型。這些結果證明了多領域數據集和掩碼標記預測任務在學習通用音頻表示方面的有效性。為促進進一步研究和可重現性,我們在 https://shikhar-s.github.io/OpenBEATs 上發布了所有預訓練和評估代碼、預訓練和微調的檢查點以及訓練日誌。
多模態大型語言模型(MLLMs)已徹底革新了跨模態理解,但仍面臨幻覺問題——即生成與視覺輸入相矛盾的虛構內容。現有的幻覺緩解方法要么計算成本過高,要么在訓練數據與模型輸出之間引入分佈不匹配。我們發現一個關鍵洞察:幻覺主要出現在文本生成的早期階段,並通過後續輸出傳播。為解決此問題,我們提出了**SENTINEL**(**S**entence-level **E**arly i**N**tervention **T**hrough **IN**-domain pr**E**ference **L**earning)框架,該框架消除了對人工註釋的依賴。具體而言,我們首先通過迭代採樣模型輸出、使用兩個開放詞彙檢測器交叉驗證對象存在性,並將句子分類為幻覺/非幻覺類別,來引導高質量的域內偏好對。隨後,我們使用上下文一致的正樣本和幻覺負樣本迭代構建上下文感知的偏好數據。最後,我們使用上下文感知偏好損失(C-DPO)訓練模型,該損失強調在幻覺最初顯現的句子層面進行判別學習。實驗結果顯示,與原始模型相比,SENTINEL能將幻覺減少超過90%,並在幻覺基準測試和通用能力基準測試上均優於先前的最先進方法,展示了其優越性和泛化能力。模型、數據集和代碼可在https://github.com/pspdada/SENTINEL獲取。
作爲現代信息傳播的主要媒介,社交網絡服務(SNS)經歷了快速增長,這對平臺內容管理和互動質量提升提出了重大挑戰。近年來,大型語言模型(LLMs)的發展提供了潛在的解決方案,但現有研究多聚焦於孤立任務,不僅在單一場景下數據擴展的效益遞減,且難以靈活適應多樣的現實情境。爲應對這些挑戰,我們引入了RedOne,這是一款專爲SNS設計的領域特定LLM,旨在突破單任務基線的性能瓶頸,並爲SNS建立一個全面的基礎。RedOne通過持續預訓練、監督微調和偏好優化的三階段訓練策略開發,利用大規模真實世界數據集。通過廣泛實驗,RedOne保持了強大的通用能力,在8項主要SNS任務上平均提升達14.02%,在SNS雙語評估基準上提升7.56%,相較於基礎模型。此外,通過在線測試,RedOne在有害內容檢測中的曝光率降低了11.23%,在帖子瀏覽搜索中的點擊頁面率提升了14.95%,相比於單任務微調的基線模型。這些結果確立了RedOne作爲一款針對SNS的強健領域特定LLM,展示了在各種任務上的優秀泛化能力以及在現實場景中的廣闊應用前景。
大型語言模型的評估是一項複雜的任務,目前已提出多種方法。最常見的是使用自動化基準測試,其中大型語言模型需回答不同主題的選擇題。然而,這種方法存在一定限制,最令人擔憂的是其與人類判斷的相關性較低。另一種方法是讓人類來評估大型語言模型,但這面臨可擴展性問題,因為需要評估的模型數量龐大且不斷增長,使得基於招募評估者並讓他們對模型回應進行排名的傳統研究變得既不可行又成本高昂。另一種替代方案是使用公共競技場,例如流行的LM競技場,任何用戶都可以自由地對模型進行任何問題的評估,並對兩個模型的回應進行排名,最終結果會被整理成模型排名。大型語言模型的能源消耗日益成為一個重要方面,因此評估能源意識如何影響人類選擇模型的決策具有重要意義。在本文中,我們介紹了GEA(生成能源競技場),這是一個在評估過程中納入模型能源消耗信息的競技場。我們還展示了使用GEA獲得的初步結果,表明對於大多數問題,當用戶了解能源消耗時,他們更傾向於選擇更小、更節能的模型。這表明,對於大多數用戶互動而言,更複雜且性能頂尖的模型所帶來的額外成本和能源消耗,並未帶來足以證明其使用合理性的回應質量提升。
本研究提出了一种针对波动市场中的定量风险管理框架,特别聚焦于应用于富时100指数的期望分位数方法。传统的风险度量指标,如风险价值(VaR),在市场压力时期表现出显著局限性,这在2008年金融危机及随后的波动期间得到了验证。本研究开发了一种先进的基于期望分位数的框架,通过提供对尾部损失的更高敏感度及在极端市场条件下的改进稳定性,解决了传统基于分位数方法的不足。研究采用了一个涵盖二十年富时100指数收益率的数据集,包括高波动性时期、市场崩盘及复苏阶段。我们的方法引入了期望分位数回归模型的新颖数学公式,利用时间序列分析增强的阈值确定技术,以及稳健的回测程序。实证结果表明,基于期望分位数的风险价值(EVaR)在各种置信水平和市场条件下均优于传统的VaR度量。该框架在波动时期表现出卓越性能,降低了模型风险并提高了预测准确性。此外,本研究为金融机构确立了实际实施指南,并为监管合规和投资组合管理提供了基于证据的建议。这些发现对金融风险管理文献做出了重要贡献,并为应对波动市场环境的从业者提供了实用工具。