翻訳付きの日次キュレーションされたAI研究論文
多くの訓練不要なスパースアテンション手法は、拡散モデルの高速化に効果的である。近年、スパースアテンションを学習可能にすることで、生成品質を維持しつつさらに高いスパース性を達成できることが複数の研究で示唆されている。本研究では以下の3つの核心的な問いを検討する:(1) Top-kおよびTop-pという2つの一般的なマスキングルールはいつ失敗するのか、またそれらの失敗をどう回避できるか?(2) 学習可能なスパースアテンションが訓練不要手法よりも高いスパース性を達成できる理由は何か?(3) 拡散損失を用いたスパースアテンションのファインチューニングにはどのような限界があり、どう解決できるか?この分析に基づき、我々はSpargeAttention2を提案する。これは生成品質を劣化させることなく高いスパース性を実現する学習可能なスパースアテンション手法である。SpargeAttention2は以下を含む:(i) 高いスパース性においてより頑健なマスキングを実現するTop-kとTop-pを組み合わせたハイブリッドマスキングルール、(ii) 効率的な学習可能スパースアテンションの実装、(iii) スパースアテンションを用いたファインチューニング時に生成品質をより良く維持するための知識蒸留に着想を得たファインチューニング目的関数。ビデオ拡散モデルを用いた実験では、SpargeAttention2が95%のアテンションスパース性と16.2倍のアテンション高速化を達成しつつ生成品質を維持し、既存のスパースアテンション手法を一貫して上回ることを示した。
本論文では、拡散モデルの事前分布による正則化と拡散モデルによるデコードを同時に行う潜在表現学習フレームワーク「Unified Latents (UL)」を提案します。エンコーダの出力ノイズを事前分布の最小ノイズレベルに連結することで、潜在ビットレートの厳密な上界を提供する簡潔な学習目的関数を導出します。ImageNet-512では、Stable Diffusionの潜在空間で学習したモデルよりも少ない学習FLOPsで、競争力のあるFID1.4を達成し、高い再構成品質(PSNR)を実現しました。Kinetics-600では、新たなstate-of-the-artとなるFVD1.3を達成しています。
本論文では、最新のネイティブGUIエージェントモデルであるGUI-Owl-1.5を紹介する。本モデルは命令実行/思考推論のバリエーションを複数のサイズ(2B/4B/8B/32B/235B)で提供し、デスクトップ・モバイル・ブラウザ等多様なプラットフォームをサポートすることで、クラウドエッジ連携とリアルタイムインタラクションを実現する。GUI-Owl-1.5はオープンソースモデルにおいて20以上のGUIベンチマークで最先端の結果を達成:(1)GUI自動化タスクではOSWorldで56.5、AndroidWorldで71.6、WebArenaで48.4を獲得(2)グラウンディングタスクではScreenSpotProで80.3を獲得(3)ツール呼び出しタスクではOSWorld-MCPで47.6、MobileWorldで46.8を獲得(4)記憶・知識タスクではGUI-Knowledge Benchで75.5を獲得した。GUI-Owl-1.5の主な技術革新は以下の三点:(1)ハイブリッドデータフライホイール:シミュレーション環境とクラウドサンドボックス環境を組み合わせたUI理解と軌道生成のデータパイプラインを構築し、データ収集の効率と品質を向上(2)エージェント能力の統合的強化:統一された思考統合パイプラインによる推論能力の強化に加え、ツール/MCP利用・記憶機能・マルチエージェント適応といった核心能力を重点的に改善(3)マルチプラットフォーム環境RLスケーリング:マルチプラットフォーム間の競合と長期タスクの訓練効率低下という課題に対処する新環境RLアルゴリズムMRPOを提案。GUI-Owl-1.5モデルはオープンソース化され、オンラインクラウドサンドボックスデモがhttps://github.com/X-PLUG/MobileAgent で公開されている。
自律的に多段階タスクを実行するエージェンシックAIアシスタントは、ユーザーエクスペリエンスにおいて未解決の問題を提起する:特に運転のような注意力が重要な状況下で、このようなシステムは長時間の操作中に進捗状況と推論をどのように伝達すべきか?我々は、計画されたステップと中間結果のフィードバックを、最終結果のみの応答による無音操作と比較する、制御された混合手法研究(N=45)を通じて、エージェンシックLLMベースの車載アシスタントにおけるフィードバックのタイミングと詳細度を調査した。車載音声アシスタントを用いた二重課題パラダイムを使用し、中間フィードバックが知覚速度、信頼性、ユーザーエクスペリエンスを大幅に改善し、タスク負荷を低減することを発見した——この効果は、様々なタスク複雑性とインタラクション文脈にわたって一貫して認められた。インタビューからさらに、ユーザーが適応的アプローチを好むことが明らかになった:信頼関係を構築するための初期の高い透明性、システムの信頼性が実証されるにつれて段階的に詳細度を低下させること、タスクの重要性と状況文脈に基づく調整である。我々は実証的知見を、透明性と効率性のバランスを考慮した、エージェンシックアシスタントにおけるフィードバックのタイミングと詳細度に関する設計示唆へと変換する。
大規模言語モデル(LLM)は、単一の応答で解決されるとは限らない複雑な問題に対して、環境との相互作用を通じて情報を獲得する必要がある場面でますます利用されるようになっている。このようなシナリオでは、LLMは探索をいつ終了し回答を確定するかという、本質的なコストと不確実性のトレードオフについて推論しなければならない。例えばプログラミング課題では、LLMは生成したコードスニペットの正しさに不確実性がある場合にテストを実施すべきである。テスト作成のコストはゼロではないが、一般的に誤りを見逃すコストよりも低い。本研究では、LLMにこれらのコストと不確実性のトレードオフを明示的に推論させ、より最適な環境探索を実行できるように誘導できることを示す。情報検索やコーディングを含む複数のタスクを、不確実性下での逐次意思決定問題として形式化する。各問題には潜在的な環境状態が存在し、LLMエージェントに渡される事前分布を通じて推論可能である。我々はCalibrate-Then-Act(CTA)フレームワークを提案し、LLMにこの追加コンテキストを与えることでより最適な行動を可能にする。この改善効果は、ベースラインとCTAの双方に対して強化学習訓練を実施した場合でも持続する。情報探索型QAおよび簡易化したコーディングタスクにおける結果は、CTAによって費用便益のトレードオフを明示化することが、エージェントによるより最適な意思決定戦略の発見に寄与することを示している。
ウェアラブルデバイス(触覚グローブなど)によって収集された人間の実演データは、政策学習に対して迅速かつ精巧な監督を提供し、豊かで自然な触覚フィードバックに導かれる。しかし、センシングモダリティと身体性の差異がある中で、人間が収集した触覚信号をロボットに如何にして転移させるかが核心的な課題である。既存の人間からロボットへの(H2R)手法で触覚を組み込むものは、同一の触覚センサを想定したり、対応付けられたデータを必要としたり、人間の実演者とロボット間の身体性の隔たりがほとんどない場合が多く、拡張性と一般性が制限されている。本研究では、異なる身体性を持つロボットへ人間収集の触覚信号を転移する、身体性を跨ぐ触覚調整手法「TactAlign」を提案する。TactAlignは、対応付けデータセットや手動ラベル、特権情報を必要とせず、整流フローを用いて人間とロボットの触覚観測を共有潜在表現へ変換する。本手法は、手と物体の相互作用から導出された擬似ペアに導かれた低コストの潜在転送を可能にする。TactAlignが、複数の接触豊富なタスク(回転、挿入、蓋閉め)にわたるH2R政策転移を改善し、人間データ(5分未満)で未見の物体やタスクへ一般化し、高度に精巧なタスク(電球のねじ込み)でゼロショットH2R転移を実現することを実証する。
Arcee Trinity Largeの技術レポートを発表します。本モデルはスパースなMixture-of-Experts(MoE)アーキテクチャを採用し、総パラメータ数400B(1トークンあたり活性化パラメータ13B)を特徴とします。さらに、Trinity Nano(総パラメータ数6B、活性化1B/トークン)およびTrinity Mini(総パラメータ数26B、活性化3B/トークン)についても報告します。これらのモデルは、現代的なアーキテクチャとして、局所注意と大域注意の交互配置、ゲート付き注意機構、深度スケーリングサンドイッチ正規化、MoEにおけるシグモイドルーティングを備えています。Trinity Largeでは、新たなMoE負荷分散戦略「Soft-clamped Momentum Expert Bias Updates(SMEBU)」を導入しています。学習にはMuonオプティマイザを採用し、3モデルすべてにおいて損失の急上昇なく学習を完了しました。Trinity NanoとTrinity Miniは10兆トークン、Trinity Largeは17兆トークンで事前学習されています。モデルチェックポイントはhttps://huggingface.co/arcee-ai で公開されています。
拡散トランスフォーマー(DiT)は画像・動画生成において最先端の性能を達成しているが、その成功には多大な計算コストが伴う。この非効率性は主に、コンテンツの複雑度やノイズ除去段階に関わらず一定サイズのパッチを使用する固定トークン化プロセスに起因している。本論文では、コンテンツの複雑度とノイズ除去のタイムステップに基づいてパッチサイズを動的に変化させる効率的な推論時戦略「動的トークン化」を提案する。重要な洞察は、初期タイムステップでは大域的な構造をモデル化するために粗いパッチのみが必要であるのに対し、後期の反復では局所的な詳細を精緻化するために細かい(小サイズの)パッチが要求されるという点である。推論時、本手法は画像・動画生成においてノイズ除去ステップ間でパッチサイズを動的に再配分し、知覚的生成品質を維持しながら計算コストを大幅に削減する。大規模な実験により本手法の有効性を実証し、FLUX-1.Devでは3.52倍、Wan 2.1では3.2倍の高速化を生成品質やプロンプト遵守性を損なうことなく達成した。
急速に進化する人工知能(AI)モデルがもたらす前例のないリスクを理解し特定するため、『フロンティアAIリスク管理フレームワーク実践編』は、そのフロンティアリスクに対する包括的評価を提示する。大規模言語モデル(LLM)の汎用的能力が急速に進化し、エージェント型AIが普及する中、本バージョンのリスク分析技術報告書では、5つの重要分野(サイバー攻撃、説得・操作、戦的欺瞠、制御不能なAI研究開発、自己複製)について更新され細分化された評価を提供する。具体的には、サイバー攻撃についてはより複雑なシナリオを導入し、説得・操作については新たにリリースされたLLMに対するLLM間説得のリスクを評価する。戦的欺瞠と陰謀については、創発的ミスアライメントに関する新たな実験を追加する。制御不能なAI研究開発については、エージェントが自律的に記憶基盤とツールセットを拡張する際の「誤った進化」に焦点を当てる。さらに、Moltbook上での相互作用におけるOpenClawの安全性性能も監視・評価する。自己複製については、新たなリソース制約シナリオを導入する。より重要なのは、これらの新興脅威に対処するための一連の堅牢な緩和戦略を提案・検証し、フロンティアAIの安全な展開に向けた予備的な技術的かつ実践可能な道筋を提供することである。本作業は、AIフロンティアリスクに関する我々の現時点での理解を反映し、これらの課題緩和に向けた集団的行動を促すものである。
最先端の大規模言語モデルは強力な推論能力や数学的能力を示す一方で、未加工のソースからドメイン特化型の科学言語モデルを訓練する実践的なプロセスについては、十分に文書化されていない。本研究では、数学・計算機科学・理論物理学にわたるarXivの未加工LaTeXソースから直接、1.36Bパラメータの科学言語モデルを訓練した詳細なケーススタディを提示する。メタデータフィルタリング、アーカイブ検証、LaTeX抽出、テキスト正規化、ドメインを考慮したトークン化、限られた計算資源(2xA100 GPU)での密なトランスフォーマー訓練までを含むエンドツーエンドのパイプラインを記述する。24回の実験を通じて、訓練の安定性、スケーリング挙動、データ収量の損失、インフラストラクチャのボトルネックを分析する。我々の知見は、前処理の決定が利用可能なトークン量に大きく影響すること、トークン化が記号的な安定性に影響を与えること、ストレージやI/Oの制約が計算資源と同程度の制限要因となりうることを明らかにする。さらに収束ダイナミクスを分析し、データ豊富な体制(52B事前学習トークン)における安定した訓練挙動を示す。本論文は新規アーキテクチャを提案するのではなく、小規模な科学言語モデルをゼロから訓練する過程を、工学的に根拠付けられた透明性のある形で報告する。これらの知見が、中程度の計算予算でドメイン特化型モデルの構築を目指す研究者の一助となることを期待する。
不完全情報ゲームにおけるマルチエージェント強化学習(MARL)の進展の多くは、従来、ベースライン手法の手動による反復的な改良に依存してきた。反実仮想後悔最小化法(CFR)や政策空間反応オラクル法(PSRO)のような基礎的な手法群は確固たる理論的基盤に立脚しているものの、それらを最も効果的に発展させた変種の設計は、広大なアルゴリズム設計空間を人間の直感に頼って探索する必要があることが多い。本研究では、大規模言語モデルによって駆動される進化的コーディングエージェントであるAlphaEvolveを利用し、新たなマルチエージェント学習アルゴリズムを自動発見する手法を提案する。本フレームワークの汎用性を、ゲーム理論的学習の二つの異なるパラダイムに対して新規変種を進化させることで実証する。第一に、反復的后悔最小化の領域において、後悔の累積と政策導出を制御するロジックを進化させ、新しいアルゴリズムであるVolatility-Adaptive Discounted (VAD-) CFRを発見した。VAD-CFRは、変動性に敏感な割引、一貫性を強制した楽観性、ハードウォームスタート政策累積スケジュールといった、直感的でない新規メカニズムを採用し、Discounted Predictive CFR+のような最先端のベースライン手法を性能で上回る。第二に、集団ベース学習アルゴリズムの領域において、PSROのための学習時および評価時のメタ戦略解法器を進化させ、新たな変種であるSmoothed Hybrid Optimistic Regret (SHOR-) PSROを発見した。SHOR-PSROは、楽観的後悔マッチングと、最適純粋戦略上の平滑化(温度制御)された分布とを線形結合するハイブリッドメタ解法器を導入する。学習中にこの結合係数と多様性ボーナスを動的に焼きなますことで、本アルゴリズムは集団の多様性から厳密な均衡探索への移行を自動化し、標準的な静的なメタ解法器と比較して優れた経験的な収束性を示す。
VLAモデルに環境ダイナミクスを予測する能力(世界モデリング)を付与することは、ロボットの推論能力と一般化性能を向上させる上で不可欠であると認識されている。しかし、現在のアプローチには2つの主要な課題がある:1. 学習目標がピクセルレベルの再構築を過度に重視させるため、意味的学習と一般化が制約される 2. 推論時に予測された未来観測値に依存するため、誤差蓄積が生じやすい。これらの課題に対処するため、我々は並列漸進的拡張による未来表現アライメント(FRAPPE)を提案する。本手法は2段階のファインチューニング戦略を採用する:中間学習段階では、モデルが未来観測の潜在表現を予測することを学習し、後学習段階では計算負荷を並列に拡張し、複数の異なる視覚基盤モデルと表現を同時にアライメントする。ファインチューニング効率を大幅に改善し、行動注釈データへの依存を軽減することで、FRAPPEは汎用ロボットポリシーにおける世界認識能力を強化するスケーラブルでデータ効率の良い経路を提供する。RoboTwinベンチマークと実世界タスクによる実験により、FRAPPEが最先端手法を凌駕し、長期予測や未経験シナリオにおいて強力な一般化性能を示すことを実証した。
本論文では、2層ニューラルネットワークが剰余加算タスクを解くために特徴量を学習する過程について、包括的な分析を提示する。我々の研究は、学習されたモデルの完全なメカニズム的解釈と、その訓練ダイナミクスの理論的説明を提供する。先行研究では個々のニューロンが単一周波数のフーリエ特徴と位相整合を学習することが示されてきたが、これらの特徴がどのように結合されて大域的な解を構成するかは完全には説明されていなかった。この隔たりを埋めるため、過剰パラメータ化条件下での訓練中に出現する「多様化条件」を定式化する。これは位相対称性と周波数多様化の二要素から構成される。我々は、これらの性質がネットワークに剰余加算タスクの正しい論理に関する不完全な指示関数を集合的に近似させることを証明する。個々のニューロンはノイズの多い信号を生成するが、位相対称性が多数決スキームを可能にし、ノイズが相殺されることで、ネットワークは頑健に正しい和を同定できる。さらに、ランダム初期化下でのこれらの特徴の出現を、抽選券メカニズムによって説明する。勾配流の分析により、各ニューロン内で周波数間の競合が生じ、初期のスペクトル強度と位相整合性によって「勝者」が決定されることを証明する。技術的観点からは、層ごとの位相結合ダイナミクスを厳密に特徴付け、ODE比較補題を用いて競合環境を形式化する。最後に、これらの知見を活用してグロッキング現象を解明し、損失最小化と重み減衰の競合に駆動された、記憶化とそれに続く二段階の一般化段階からなる三段階プロセスとして特徴付ける。
複雑なソフトウェア環境で動作するエージェントは、自身の行動の結果について推論を行うことで利益を得る。なぜなら、単一の誤ったユーザーインターフェース(UI)操作でさえ、成果物を保存する長いワークフローを脱線させうるからである。この課題は、コンピュータ利用シナリオにおいて特に深刻である。この環境は完全にデジタルで決定的であるにもかかわらず、実際の実行では反事実的な探索が支持されず、大規模な試行錯誤学習と計画を非現実的なものにする。我々は、デスクトップソフトウェア向けの世界モデルであるComputer-Using World Model(CUWM)を提案する。CUWMは、現在の状態と候補となる行動が与えられた時に、次のUI状態を予測する。CUWMはUIダイナミクスの2段階の因子分解を採用する:まず、エージェントに関連する状態変化のテキスト記述を予測し、次にこれらの変化を視覚的に具現化して次のスクリーンショットを合成する。CUWMは、実際のMicrosoft Officeアプリケーションと対話するエージェントから収集されたオフラインのUI遷移データで学習され、テキスト遷移予測をコンピュータ利用環境の構造的要件に整合させる軽量な強化学習段階によってさらに洗練される。我々は、テスト時行動探索を通じてCUWMを評価する。これは、凍結されたエージェントが実行前に候補行動をシミュレートし比較するために世界モデルを使用する手法である。様々なOfficeタスクにわたって、世界モデルが導くテスト時スケーリングは意思決定の質と実行の堅牢性を向上させる。
大規模言語モデル(LLM)編集における中心的な課題は、能力維持である。対象とする振る舞いの変更に成功する手法が、編集の代理指標を密かに操作し、一般的な能力を損なう可能性があり、これは代理指標/報酬ハッキングを想起させる縮退的な振る舞いを生み出す。本論文では、能力維持を明示的な制約として扱い、既存の複数の編集手法を統合・一般化する、スケーラブルで原理に基づいた二階の編集アルゴリズム「CrispEdit」を提案する。CrispEditは編集を制約付き最適化問題として定式化し、編集による更新を能力損失の景観における低曲率部分空間へ射影することで、この制約を強制する。CrispEditの核心は、能力制約をブレグマン距離によって表現することにある。その二次形式は、ガウス-ニュートンヘッセ行列を正確に与え、たとえ基底モデルが収束まで学習されていない場合でも同様である。我々は、クロネッカー分解近似曲率(K-FAC)と、大規模な射影行列の構築を回避するためにクロネッカー構造を利用する新規の行列フリー射影器を用いて、この二階の手続きをLLM規模で効率的に実行する。標準的なモデル編集ベンチマークにおいて、CrispEditは高い編集成功率を達成し、データセット全体で平均して能力劣化を1%未満に抑え、従来の編集手法を大幅に改善する。
線形注意トランスフォーマーは、その効率性からソフトマックス注意の強力な代替として注目されている。しかし、線形注意は表現力が低く、ソフトマックス注意と比較して精度が低下する傾向がある。この精度差を埋めるため、我々は強力な線形注意の変種であるMamba-2を改良する。まず、Mamba-2を最も基本的かつ重要な構成要素まで単純化し、どの特定の選択が高精度に寄与するかを評価する。この簡略化されたMamba変種(Mamba-2S)を基に、Aマスクを改良し隠れ状態の次数を増やすことで、ソフトマックス注意と同等に近い精度を持ちながら、長い文脈長に対してはるかにメモリ効率の良い手法「2Mamba」を開発した。さらに、Mamba-2がソフトマックス注意の精度を凌駕する要素についても調査する。すべての実験のコードを公開している。
大規模言語モデル(LLM)は近年、強力な推論能力と汎化能力を示し、複雑な環境における意思決定ポリシーとしての応用が期待されている。StarCraft II(SC2)は、その膨大な状態-行動空間と部分観測性から、挑戦的なテストベッドとなっている。しかし、既存のLLMベースのSC2エージェントは主にポリシー自体の改善に焦点を当てており、学習可能な行動条件付き状態遷移モデルを意思決定ループに統合することを見落としている。このギャップを埋めるため、我々は部分観測下での将来の観測を予測する、SC2初の世界モデルであるStarWMを提案する。SC2のハイブリッドなダイナミクスを効果的に学習するため、観測を5つの意味論的モジュールに分解する構造化テキスト表現を導入し、SC2ダイナミクス予測用初の指示チューニングデータセットであるSC2-Dynamics-50kを構築した。さらに、予測された構造化観測のための多次元オフライン評価フレームワークを開発した。オフライン評価の結果、StarWMはゼロショットベースラインを大幅に上回り、資源予測精度で約60%、自軍の大局的状況の一貫性において顕著な改善を示した。最後に、StarWMをGenerate-Simulate-Refine意思決定ループに統合し、先読み駆動型のポリシー改善を実現する世界モデル拡張意思決定システム、StarWM-Agentを提案する。SC2組み込みAIに対するオンライン評価では、一貫した改善が確認され、Hard(LV5)、Harder(LV6)、VeryHard(LV7)に対してそれぞれ30%、15%、30%の勝率向上をもたらすとともに、大局的マネジメントの安定性と戦術的リスク評価の向上が示された。
自律的なWebエージェントの急速な進歩にもかかわらず、タスクの進行に伴う選好の形成やエージェント行動の修正には、依然として人間の関与が不可欠である。しかし、現在のエージェントシステムは、人間がいつ、なぜ介入するかについて原理的な理解を欠いており、重要な意思決定点を自律的に通過してしまったり、不必要な確認を要求したりすることが多い。本研究では、協調的なWebタスク実行を支援するための人間の介入のモデル化タスクを提案する。我々は、4,200以上の人間とエージェントの行動が交互に記録された、実ユーザーによる400件のWebナビゲーション軌跡データセット「CowCorpus」を収集した。我々は、ユーザーとエージェントの相互作用に4つの異なるパターン――ハンズオフな監督、ハンズオンな監視、協調的なタスク解決、完全なユーザー引き継ぎ――を特定した。これらの知見を活用し、言語モデルを、ユーザーの相互作用スタイルに基づいて介入が発生しそうなタイミングを予測するように学習させた結果、ベースラインの言語モデルと比較して介入予測精度が61.4-63.4%向上した。最後に、これらの介入を意識したモデルを実際のWebナビゲーションエージェントに組み込み、ユーザー調査で評価したところ、ユーザー評価によるエージェントの有用性が26.5%向上した。以上の結果は、人間の介入を構造的にモデル化することが、より適応的で協調的なエージェントの実現につながることを示している。
本論文では、大規模言語モデル(LLM)向けの必須安全性ベンチマーク「NESSiE」を提案する。NESSiEは、情報セキュリティとアクセスセキュリティにおける最小限のテストケースによって、タスクの複雑度が低いことを考慮すれば存在すべきでない安全性関連の欠陥を明らかにする。NESSiEは、言語モデルの安全性に対する軽量で簡便なサニティチェックとして設計されているため、一般的な安全性を保証するには不十分であるが、本テストを通過することはあらゆるデプロイにおいて必要条件であると我々は主張する。しかし、最先端のLLMであってもNESSiEで100%を達成しておらず、敵対的攻撃が存在しない場合であっても、我々が定める言語モデル安全性の必要条件を満たせていない。我々の提案する「安全かつ有益(SH)」指標により、これら二つの要件を直接比較可能とし、モデルが安全性よりも有益性に偏っていることを示す。さらに、一部のモデルでは推論機能が無効化されている場合、特に無害な注意散漫な文脈がモデルの性能を低下させることを確認した。全体として、本結果は、このようなモデルを自律エージェントとして現実環境にデプロイすることの重大なリスクを強調するものである。データセット、パッケージ、およびプロット用コードは公開予定である。
Vision-Language-Actionモデル(VLA)は、Physical AIの主要なパラダイムとして台頭し、自律走行車、ロボット、スマート空間などへの展開が進んでいる。こうしたリソース制約の厳しいオンデバイス環境では、適切な大規模言語モデル(LLM)バックボーンの選択が重要な課題となる。モデルは精度と、厳しい推論レイテンシおよびハードウェア効率の制約を両立させなければならない。このため、ハードウェア・ソフトウェア協調設計がオンデバイスLLM展開におけるゲームチェンジ要件となり、各ハードウェアプラットフォームに特化したアーキテクチャソリューションが求められる。本研究では、モデル精度と推論性能を統合的に捉えるハードウェア協調設計の法則を提案する。具体的には、訓練損失をアーキテクチャハイパーパラメータの明示的関数としてモデル化し、ルーフラインモデリングにより推論レイテンシを特徴付ける。NVIDIA Jetson Orin上で1,942の候補アーキテクチャを実証評価し、選択した170モデルをそれぞれ100億トークン訓練して、アーキテクチャと訓練損失を関連付けるスケーリング則を構築した。このスケーリング則とレイテンシモデルを結合することで、精度とレイテンシの直接的な対応関係を確立し、ハードウェア協調設計LLMのパレートフロンティアを同定する。さらに、アーキテクチャ探索を精度と性能の共同最適化問題として定式化し、産業用ハードウェアとアプリケーション予算の下で実現可能な設計領域を導出する。本手法により、アーキテクチャ選択を数か月から数日に短縮できる。目標ハードウェア上でQwen2.5-0.5Bと同等のレイテンシにおいて、協調設計アーキテクチャはWikiText-2で19.42%低いパープレキシティを達成した。知る限り、オンデバイスLLM展開におけるハードウェア協調設計スケーリング則の原理的かつ実用的な枠組みは本研究が初めてである。コード及び関連チェックポイントは公開予定である。
安全性アライメントは、大規模言語モデル(LLM)を責任を持って展開する上で不可欠である。しかし、既存のアプローチは、モデルファミリー間で更新、監査、維持するのにコストがかかる重量級のファインチューニングに依存することが多い。フルファインチューニングは計算コストとストレージのオーバーヘッドが大きく、LoRAのようなパラメータ効率の良い手法は効率性と引き換えに、安全性向上の一貫性のなさや設計選択への敏感性といった課題がある。回路遮断機のような安全性介入メカニズムはモデルの重みを変更せずに不安全な出力を減らすが、安全性行動を司る内部表現を直接形成したり保持したりするものではない。これらの制限は、特にモデルが頻繁に進化したり、新しいポリシーやドメインに適応する必要がある環境において、迅速かつ信頼性の高い安全性更新を妨げている。 本研究では、NeSTという軽量で構造を考慮した安全性アライメントフレームワークを提案する。NeSTはモデルの大部分を凍結したまま、安全性に関連する少数のニューロンのみを選択的に適応させることで、拒否行動を強化する。機能的に一貫性のある安全性ニューロンをクラスタリングし、各クラスタ内で更新を共有させることで、パラメータ更新を安全性行動の内部構造に沿って調整し、広範なモデル変更や推論時のオーバーヘッドなしに、標的的で安定した安全性適応を可能にする。我々はNeSTを、フルファインチューニング、LoRAベースのファインチューニング、回路遮断機という3つの主要なベースラインと比較し、複数のモデルファミリーとサイズにわたる10のオープンウェイトLLMで評価した。評価した全てのモデルにおいて、NeSTは攻撃成功率を平均44.5%から4.36%に低下させ、不安全な生成を90.2%削減した。これは、平均でわずか44万個の学習可能パラメータのみを必要とし、フルファインチューニングと比較して更新パラメータ数を17,310分の1に、LoRAと比較して9.25分の1に削減しつつ、アライメントにおいて一貫して強力な安全性パフォーマンスを達成した。
検証可能な報酬を用いた強化学習(RLVR)は推論タスクで高い有効性を示すが、正解検証器を欠く非検証可能領域(例えばLLMアライメント)には直接適用できない。本研究では、参照情報を活用したLLM評価器がソフトな「検証器」としてこの隔たりを埋められるかを検証する。まず、参照出力を活用してLLMアライメント向けLLM評価器を強化する評価プロトコルを設計する。包括的実験を通じ、性能低位のLLM評価者は先進モデル由来の参照により精度が大幅に向上すること、高性能なLLM評価者も高品質(人間作成)の参照でさらに改善されることを示す。これらの改良された評価器を基盤に、参照付きLLMを評価器として自己改善を行うアライメント調整における高品質参照の有用性を実証する。参照誘導型自己改善は、参照出力への直接SFTや参照なし評価器を用いた自己改善を明確に上回り、強力なファインチューン報酬モデルArmoRMを用いた訓練に匹敵する性能を達成した。具体的には、Llama-3-8B-InstructでAlpacaEval 73.1%、Arena-Hard 58.7%、Qwen2.5-7Bで70.0%、74.1%を達成し、AlpacaEval/Arena-HardにおいてSFT蒸留比で平均+20.2/+17.1ポイント、参照なし自己改善比で+5.3/+3.6ポイントの絶対改善を示した。これらの結果は、非検証可能領域における効果的なLLM事後学習を実現する参照誘導型LLM評価器の可能性を浮き彫りにする。
ステレオ深度推定は水中ロボット知覚の基本技術であるが、波長依存的光減衰、散乱、屈折による深刻なドメインシフトに悩まされている。近年のアプローチでは、GRUベースの反復的精密化を伴う単眼基盤モデルを水中適応に活用している。しかし、GRUの逐次ゲート処理と局所的な畳み込みカーネルは、長距離視差伝播に多数の反復を必要とし、大きな視差を持つテクスチャレスな水中領域での性能を制限している。本論文では、従来のConvGRU更新器を選択的状態空間モデルに基づく新しいConvSS2D演算子に置き換えたStereoAdapter-2を提案する。提案演算子は、エピポーラ幾何学に自然に整合しつつ垂直方向の構造的一貫性を捕捉する四方向走査戦略を採用し、線形計算量で単一の更新ステップ内で効率的な長距離空間伝播を実現する。さらに、セマンティック認識型スタイル変換と幾何学的一貫性のある新規視点合成を組み合わせた二段階生成パイプラインを通じて、多様なベースライン、減衰係数、散乱パラメータを特徴とする大規模合成水中ステレオデータセットUW-StereoDepth-80Kを構築した。StereoAdapterから継承した動的LoRA適応と組み合わせることで、本フレームワークは水中ベンチマークにおいてゼロショット性能で最先端を達成し、TartanAir-UWで17%、SQUIDで7.2%の改善を示した。BlueROV2プラットフォームでの実世界検証により、本アプローチのロバスト性が実証されている。コード: https://github.com/AIGeeksGroup/StereoAdapter-2. ウェブサイト: https://aigeeksgroup.github.io/StereoAdapter-2.