協調的知能への要請:なぜ人間-エージェントシステムがAI自律性に先行すべきか
A Call for Collaborative Intelligence: Why Human-Agent Systems Should Precede AI Autonomy
June 11, 2025
著者: Henry Peng Zou, Wei-Chieh Huang, Yaozu Wu, Chunyu Miao, Dongyuan Li, Aiwei Liu, Yue Zhou, Yankai Chen, Weizhi Zhang, Yangning Li, Liancheng Fang, Renhe Jiang, Philip S. Yu
cs.AI
要旨
大規模言語モデル(LLM)の最近の進歩により、多くの研究者が完全自律型AIエージェントの構築に焦点を当てるようになった。本ポジションペーパーでは、このアプローチが正しい方向性であるかどうかを問いかける。なぜなら、これらの自律システムは依然として信頼性、透明性、そして人間の実際の要求を理解する点で問題を抱えているからである。我々は、AIが人間を置き換えるのではなく、人間と協働するLLMベースの人間-エージェントシステム(LLM-HAS)という異なるアプローチを提案する。人間がガイダンスを提供し、質問に答え、制御を維持することで、これらのシステムはより信頼性が高く、適応性のあるものとなる。医療、金融、ソフトウェア開発の事例を通じて、人間とAIのチームワークが、AI単独で働く場合よりも複雑なタスクをよりうまく処理できることを示す。また、これらの協調システムを構築する上での課題について議論し、実践的な解決策を提供する。本論文では、AIの進歩はシステムがどれだけ独立しているかではなく、どれだけ人間と協働できるかによって測られるべきであると主張する。AIの最も有望な未来は、人間の役割を引き継ぐシステムではなく、有意義なパートナーシップを通じて人間の能力を強化するシステムにある。
English
Recent improvements in large language models (LLMs) have led many researchers
to focus on building fully autonomous AI agents. This position paper questions
whether this approach is the right path forward, as these autonomous systems
still have problems with reliability, transparency, and understanding the
actual requirements of human. We suggest a different approach: LLM-based
Human-Agent Systems (LLM-HAS), where AI works with humans rather than replacing
them. By keeping human involved to provide guidance, answer questions, and
maintain control, these systems can be more trustworthy and adaptable. Looking
at examples from healthcare, finance, and software development, we show how
human-AI teamwork can handle complex tasks better than AI working alone. We
also discuss the challenges of building these collaborative systems and offer
practical solutions. This paper argues that progress in AI should not be
measured by how independent systems become, but by how well they can work with
humans. The most promising future for AI is not in systems that take over human
roles, but in those that enhance human capabilities through meaningful
partnership.