IoT-MCP: Соединение больших языковых моделей и IoT-систем через протокол контекста модели
IoT-MCP: Bridging LLMs and IoT Systems Through Model Context Protocol
September 25, 2025
Авторы: Ningyuan Yang, Guanliang Lyu, Mingchen Ma, Yiyi Lu, Yiming Li, Zhihui Gao, Hancheng Ye, Jianyi Zhang, Tingjun Chen, Yiran Chen
cs.AI
Аннотация
Интеграция крупных языковых моделей (LLM) с системами Интернета вещей (IoT) сталкивается со значительными трудностями, связанными с аппаратной неоднородностью и сложностью управления. Протокол Model Context Protocol (MCP) становится ключевым инструментом, обеспечивая стандартизированное взаимодействие между LLM и физическими устройствами. Мы предлагаем IoT-MCP — новую платформу, реализующую MCP через серверы, развернутые на границе сети, для соединения LLM и экосистем IoT. Для поддержки строгой оценки мы представляем IoT-MCP Bench — первый бенчмарк, содержащий 114 базовых задач (например, «Какая текущая температура?») и 1 140 сложных задач (например, «Мне очень жарко, у вас есть идеи?») для LLM, интегрированных с IoT. Экспериментальная проверка на 22 типах датчиков и 6 микроконтроллерах демонстрирует 100% успешность выполнения задач IoT-MCP в генерации вызовов инструментов, полностью соответствующих ожиданиям и обеспечивающих абсолютно точные результаты, среднее время отклика 205 мс и пиковое использование памяти 74 КБ. Данная работа предоставляет как открытую платформу для интеграции (https://github.com/Duke-CEI-Center/IoT-MCP-Servers), так и стандартизированную методологию оценки систем LLM-IoT.
English
The integration of Large Language Models (LLMs) with Internet-of-Things (IoT)
systems faces significant challenges in hardware heterogeneity and control
complexity. The Model Context Protocol (MCP) emerges as a critical enabler,
providing standardized communication between LLMs and physical devices. We
propose IoT-MCP, a novel framework that implements MCP through edge-deployed
servers to bridge LLMs and IoT ecosystems. To support rigorous evaluation, we
introduce IoT-MCP Bench, the first benchmark containing 114 Basic Tasks (e.g.,
``What is the current temperature?'') and 1,140 Complex Tasks (e.g., ``I feel
so hot, do you have any ideas?'') for IoT-enabled LLMs. Experimental validation
across 22 sensor types and 6 microcontroller units demonstrates IoT-MCP's 100%
task success rate to generate tool calls that fully meet expectations and
obtain completely accurate results, 205ms average response time, and 74KB peak
memory footprint. This work delivers both an open-source integration framework
(https://github.com/Duke-CEI-Center/IoT-MCP-Servers) and a standardized
evaluation methodology for LLM-IoT systems.