ChatPaper.aiChatPaper

IoT-MCP: Collega i Modelli Linguistici di Grande Dimensione e i Sistemi IoT tramite il Protocollo di Contesto del Modello

IoT-MCP: Bridging LLMs and IoT Systems Through Model Context Protocol

September 25, 2025
Autori: Ningyuan Yang, Guanliang Lyu, Mingchen Ma, Yiyi Lu, Yiming Li, Zhihui Gao, Hancheng Ye, Jianyi Zhang, Tingjun Chen, Yiran Chen
cs.AI

Abstract

L'integrazione dei Large Language Models (LLM) con i sistemi Internet-of-Things (IoT) affronta sfide significative legate all'eterogeneità hardware e alla complessità di controllo. Il Model Context Protocol (MCP) emerge come un abilitatore critico, fornendo una comunicazione standardizzata tra i LLM e i dispositivi fisici. Proponiamo IoT-MCP, un framework innovativo che implementa il MCP attraverso server distribuiti ai margini della rete per collegare i LLM e gli ecosistemi IoT. Per supportare una valutazione rigorosa, introduciamo IoT-MCP Bench, il primo benchmark contenente 114 Task di Base (ad esempio, "Qual è la temperatura attuale?") e 1.140 Task Complessi (ad esempio, "Mi sento molto accaldato, hai qualche idea?") per i LLM abilitati all'IoT. La validazione sperimentale su 22 tipi di sensori e 6 unità microcontrollore dimostra che IoT-MCP raggiunge un tasso di successo del 100% nel generare chiamate di strumenti che soddisfano pienamente le aspettative e ottengono risultati completamente accurati, con un tempo di risposta medio di 205ms e un picco di utilizzo della memoria di 74KB. Questo lavoro fornisce sia un framework di integrazione open-source (https://github.com/Duke-CEI-Center/IoT-MCP-Servers) che una metodologia di valutazione standardizzata per i sistemi LLM-IoT.
English
The integration of Large Language Models (LLMs) with Internet-of-Things (IoT) systems faces significant challenges in hardware heterogeneity and control complexity. The Model Context Protocol (MCP) emerges as a critical enabler, providing standardized communication between LLMs and physical devices. We propose IoT-MCP, a novel framework that implements MCP through edge-deployed servers to bridge LLMs and IoT ecosystems. To support rigorous evaluation, we introduce IoT-MCP Bench, the first benchmark containing 114 Basic Tasks (e.g., ``What is the current temperature?'') and 1,140 Complex Tasks (e.g., ``I feel so hot, do you have any ideas?'') for IoT-enabled LLMs. Experimental validation across 22 sensor types and 6 microcontroller units demonstrates IoT-MCP's 100% task success rate to generate tool calls that fully meet expectations and obtain completely accurate results, 205ms average response time, and 74KB peak memory footprint. This work delivers both an open-source integration framework (https://github.com/Duke-CEI-Center/IoT-MCP-Servers) and a standardized evaluation methodology for LLM-IoT systems.
PDF22October 3, 2025