ARIS: 敵対的マルチエージェント協調による自律的研究
ARIS: Autonomous Research via Adversarial Multi-Agent Collaboration
May 4, 2026
著者: Ruofeng Yang, Yongcan Li, Shuai Li
cs.AI
要旨
本報告書では、自律的研究のためのオープンソース研究ハーネスであるARIS(Auto-Research-in-sleep)について、そのアーキテクチャ、保証メカニズム、初期導入経験を説明する。LLMベースのエージェントシステムの性能は、モデル重みと、保存・検索・モデル提示すべき情報を制御する周辺ハーネスの両方に依存する。長期的な研究ワークフローにおいて、中心的な障害モードは明らかな破綻ではなく、根拠の不十分な成功が plausibly 生じることである。長時間動作するエージェントは、証拠支持が不完全、誤報告、または実行側の枠組みから黙示的に継承された主張を生成しうる。そこで我々は、機械学習研究ワークフローを、デフォルト構成として異なるモデルファミリー間の敵対的協調を通じて調整する研究ハーネスとしてARISを提案する。すなわち、実行モデルが進捗を推進し、別モデルファミリーのレビュアーが中間成果物を批判し修正を要求する。ARISは3層アーキテクチャを有する。実行層は、65以上の再利用可能なMarkdown定義スキル、MCP経由のモデル統合、先行知見の反復再利用のための永続的研究Wiki、決定論的図生成を提供する。オーケストレーション層は、調整可能な努力設定とレビュアーモデルへの設定可能なルーティングを備えた5つのエンドツーエンドワークフローを調整する。保証層には、実験的主張が証拠によって支持されているかを検証する3段階プロセス(完全性検証、結果と主張のマッピング、論文記述と主張台帳・生証拠の照合を行う主張監査)に加え、5段階の科学的編集パイプライン、数学的証明チェック、レンダリング済PDFの視覚的検査が含まれる。プロトタイプ自己改善ループは研究トレースを記録し、レビュアー承認後にのみ採用されるハーネス改善を提案する。
English
This report describes ARIS (Auto-Research-in-sleep), an open-source research harness for autonomous research, including its architecture, assurance mechanisms, and early deployment experience. The performance of agent systems built on LLMs depends on both the model weights and the harness around them, which governs what information to store, retrieve, and present to the model. For long-horizon research workflows, the central failure mode is not a visible breakdown but a plausible unsupported success: a long-running agent can produce claims whose evidential support is incomplete, misreported, or silently inherited from the executor's framing. Therefore, we present ARIS as a research harness that coordinates machine-learning research workflows through cross-model adversarial collaboration as a default configuration: an executor model drives forward progress while a reviewer from a different model family is recommended to critique intermediate artifacts and request revisions. ARIS has three architectural layers. The execution layer provides more than 65 reusable Markdown-defined skills, model integrations via MCP, a persistent research wiki for iterative reuse of prior findings, and deterministic figure generation. The orchestration layer coordinates five end-to-end workflows with adjustable effort settings and configurable routing to reviewer models. The assurance layer includes a three-stage process for checking whether experimental claims are supported by evidence: integrity verification, result-to-claim mapping, and claim auditing that cross-checks manuscript statements against the claim ledger and raw evidence, as well as a five-pass scientific-editing pipeline, mathematical-proof checks, and visual inspection of the rendered PDF. A prototype self-improvement loop records research traces and proposes harness improvements that are adopted only after reviewer approval.