IoT-MCP: Collega i Modelli Linguistici di Grande Dimensione e i Sistemi IoT tramite il Protocollo di Contesto del Modello
IoT-MCP: Bridging LLMs and IoT Systems Through Model Context Protocol
September 25, 2025
Autori: Ningyuan Yang, Guanliang Lyu, Mingchen Ma, Yiyi Lu, Yiming Li, Zhihui Gao, Hancheng Ye, Jianyi Zhang, Tingjun Chen, Yiran Chen
cs.AI
Abstract
L'integrazione dei Large Language Models (LLM) con i sistemi Internet-of-Things (IoT) affronta sfide significative legate all'eterogeneità hardware e alla complessità di controllo. Il Model Context Protocol (MCP) emerge come un abilitatore critico, fornendo una comunicazione standardizzata tra i LLM e i dispositivi fisici. Proponiamo IoT-MCP, un framework innovativo che implementa il MCP attraverso server distribuiti ai margini della rete per collegare i LLM e gli ecosistemi IoT. Per supportare una valutazione rigorosa, introduciamo IoT-MCP Bench, il primo benchmark contenente 114 Task di Base (ad esempio, "Qual è la temperatura attuale?") e 1.140 Task Complessi (ad esempio, "Mi sento molto accaldato, hai qualche idea?") per i LLM abilitati all'IoT. La validazione sperimentale su 22 tipi di sensori e 6 unità microcontrollore dimostra che IoT-MCP raggiunge un tasso di successo del 100% nel generare chiamate di strumenti che soddisfano pienamente le aspettative e ottengono risultati completamente accurati, con un tempo di risposta medio di 205ms e un picco di utilizzo della memoria di 74KB. Questo lavoro fornisce sia un framework di integrazione open-source (https://github.com/Duke-CEI-Center/IoT-MCP-Servers) che una metodologia di valutazione standardizzata per i sistemi LLM-IoT.
English
The integration of Large Language Models (LLMs) with Internet-of-Things (IoT)
systems faces significant challenges in hardware heterogeneity and control
complexity. The Model Context Protocol (MCP) emerges as a critical enabler,
providing standardized communication between LLMs and physical devices. We
propose IoT-MCP, a novel framework that implements MCP through edge-deployed
servers to bridge LLMs and IoT ecosystems. To support rigorous evaluation, we
introduce IoT-MCP Bench, the first benchmark containing 114 Basic Tasks (e.g.,
``What is the current temperature?'') and 1,140 Complex Tasks (e.g., ``I feel
so hot, do you have any ideas?'') for IoT-enabled LLMs. Experimental validation
across 22 sensor types and 6 microcontroller units demonstrates IoT-MCP's 100%
task success rate to generate tool calls that fully meet expectations and
obtain completely accurate results, 205ms average response time, and 74KB peak
memory footprint. This work delivers both an open-source integration framework
(https://github.com/Duke-CEI-Center/IoT-MCP-Servers) and a standardized
evaluation methodology for LLM-IoT systems.