ChatPaper.aiChatPaper

DrafterBench: Тестирование больших языковых моделей для автоматизации задач в гражданском строительстве

DrafterBench: Benchmarking Large Language Models for Tasks Automation in Civil Engineering

July 15, 2025
Авторы: Yinsheng Li, Zhen Dong, Yi Shao
cs.AI

Аннотация

Крупные языковые модели (LLM) агенты продемонстрировали значительный потенциал для решения реальных задач и обещают стать решением для автоматизации процессов в промышленности. Однако для систематической оценки агентов автоматизации с промышленной точки зрения, например, в гражданском строительстве, требуется больше тестовых наборов. Поэтому мы предлагаем DrafterBench для всесторонней оценки LLM агентов в контексте пересмотра технических чертежей, что является важной задачей в гражданском строительстве. DrafterBench включает двенадцать типов задач, обобщенных из реальных файлов чертежей, с 46 настраиваемыми функциями/инструментами и 1920 задачами в общей сложности. DrafterBench представляет собой открытый тестовый набор для строгой проверки способности AI агентов интерпретировать сложные и длинные инструкции, использовать предварительные знания и адаптироваться к динамическому качеству инструкций через неявное осознание политики. Набор инструментов всесторонне оценивает различные способности, такие как понимание структурированных данных, выполнение функций, следование инструкциям и критическое мышление. DrafterBench предлагает детальный анализ точности выполнения задач и статистики ошибок, стремясь предоставить более глубокое понимание возможностей агентов и выявить цели для улучшения интеграции LLM в инженерные приложения. Наш тестовый набор доступен по адресу https://github.com/Eason-Li-AIS/DrafterBench, а тестовый набор размещен на https://huggingface.co/datasets/Eason666/DrafterBench.
English
Large Language Model (LLM) agents have shown great potential for solving real-world problems and promise to be a solution for tasks automation in industry. However, more benchmarks are needed to systematically evaluate automation agents from an industrial perspective, for example, in Civil Engineering. Therefore, we propose DrafterBench for the comprehensive evaluation of LLM agents in the context of technical drawing revision, a representation task in civil engineering. DrafterBench contains twelve types of tasks summarized from real-world drawing files, with 46 customized functions/tools and 1920 tasks in total. DrafterBench is an open-source benchmark to rigorously test AI agents' proficiency in interpreting intricate and long-context instructions, leveraging prior knowledge, and adapting to dynamic instruction quality via implicit policy awareness. The toolkit comprehensively assesses distinct capabilities in structured data comprehension, function execution, instruction following, and critical reasoning. DrafterBench offers detailed analysis of task accuracy and error statistics, aiming to provide deeper insight into agent capabilities and identify improvement targets for integrating LLMs in engineering applications. Our benchmark is available at https://github.com/Eason-Li-AIS/DrafterBench, with the test set hosted at https://huggingface.co/datasets/Eason666/DrafterBench.
PDF151July 17, 2025