IoT-MCP: Verbinding tussen LLM's en IoT-systemen via het Model Context Protocol
IoT-MCP: Bridging LLMs and IoT Systems Through Model Context Protocol
September 25, 2025
Auteurs: Ningyuan Yang, Guanliang Lyu, Mingchen Ma, Yiyi Lu, Yiming Li, Zhihui Gao, Hancheng Ye, Jianyi Zhang, Tingjun Chen, Yiran Chen
cs.AI
Samenvatting
De integratie van Large Language Models (LLMs) met Internet-of-Things (IoT)-systemen kampt met aanzienlijke uitdagingen op het gebied van hardwareheterogeniteit en controlecomplexiteit. Het Model Context Protocol (MCP) komt naar voren als een cruciale enabler, die gestandaardiseerde communicatie tussen LLMs en fysieke apparaten mogelijk maakt. Wij stellen IoT-MCP voor, een nieuw framework dat MCP implementeert via edge-geïmplementeerde servers om LLMs en IoT-ecosystemen te verbinden. Om rigoureuze evaluatie te ondersteunen, introduceren we IoT-MCP Bench, de eerste benchmark die 114 Basistaken (bijv., "Wat is de huidige temperatuur?") en 1.140 Complexe Taken (bijv., "Ik heb het zo warm, heb je ideeën?") bevat voor IoT-geactiveerde LLMs. Experimentele validatie over 22 sensortypes en 6 microcontrollerunits toont aan dat IoT-MCP een taak-succespercentage van 100% behaalt om tool-aanroepen te genereren die volledig aan de verwachtingen voldoen en volledig accurate resultaten opleveren, met een gemiddelde responstijd van 205ms en een piekgeheugenverbruik van 74KB. Dit werk levert zowel een open-source integratieframework (https://github.com/Duke-CEI-Center/IoT-MCP-Servers) als een gestandaardiseerde evaluatiemethodologie voor LLM-IoT-systemen.
English
The integration of Large Language Models (LLMs) with Internet-of-Things (IoT)
systems faces significant challenges in hardware heterogeneity and control
complexity. The Model Context Protocol (MCP) emerges as a critical enabler,
providing standardized communication between LLMs and physical devices. We
propose IoT-MCP, a novel framework that implements MCP through edge-deployed
servers to bridge LLMs and IoT ecosystems. To support rigorous evaluation, we
introduce IoT-MCP Bench, the first benchmark containing 114 Basic Tasks (e.g.,
``What is the current temperature?'') and 1,140 Complex Tasks (e.g., ``I feel
so hot, do you have any ideas?'') for IoT-enabled LLMs. Experimental validation
across 22 sensor types and 6 microcontroller units demonstrates IoT-MCP's 100%
task success rate to generate tool calls that fully meet expectations and
obtain completely accurate results, 205ms average response time, and 74KB peak
memory footprint. This work delivers both an open-source integration framework
(https://github.com/Duke-CEI-Center/IoT-MCP-Servers) and a standardized
evaluation methodology for LLM-IoT systems.