ChatPaper.aiChatPaper

DrafterBench: Benchmarking von großen Sprachmodellen für die Automatisierung von Aufgaben im Bauingenieurwesen

DrafterBench: Benchmarking Large Language Models for Tasks Automation in Civil Engineering

July 15, 2025
papers.authors: Yinsheng Li, Zhen Dong, Yi Shao
cs.AI

papers.abstract

Große Sprachmodelle (LLM) haben großes Potenzial gezeigt, um reale Probleme zu lösen und versprechen, eine Lösung für die Automatisierung von Aufgaben in der Industrie zu sein. Es werden jedoch mehr Benchmarks benötigt, um Automatisierungsagenten systematisch aus einer industriellen Perspektive zu bewerten, beispielsweise im Bauingenieurwesen. Daher schlagen wir DrafterBench für die umfassende Bewertung von LLM-Agenten im Kontext der technischen Zeichnungsrevision vor, einer Darstellungsaufgabe im Bauingenieurwesen. DrafterBench enthält zwölf Arten von Aufgaben, die aus realen Zeichnungsdateien zusammengefasst wurden, mit 46 angepassten Funktionen/Werkzeugen und insgesamt 1920 Aufgaben. DrafterBench ist ein Open-Source-Benchmark, um die Fähigkeiten von KI-Agenten rigoros zu testen, komplexe und langfristige Anweisungen zu interpretieren, Vorwissen zu nutzen und sich an die dynamische Qualität von Anweisungen durch implizite Richtlinienbewusstheit anzupassen. Das Toolkit bewertet umfassend unterschiedliche Fähigkeiten im Verständnis strukturierter Daten, der Ausführung von Funktionen, der Befolgung von Anweisungen und des kritischen Denkens. DrafterBench bietet eine detaillierte Analyse der Aufgabenrichtigkeit und Fehlerstatistiken, mit dem Ziel, tiefere Einblicke in die Fähigkeiten von Agenten zu geben und Verbesserungsziele für die Integration von LLMs in ingenieurtechnische Anwendungen zu identifizieren. Unser Benchmark ist verfügbar unter https://github.com/Eason-Li-AIS/DrafterBench, wobei der Testdatensatz unter https://huggingface.co/datasets/Eason666/DrafterBench gehostet wird.
English
Large Language Model (LLM) agents have shown great potential for solving real-world problems and promise to be a solution for tasks automation in industry. However, more benchmarks are needed to systematically evaluate automation agents from an industrial perspective, for example, in Civil Engineering. Therefore, we propose DrafterBench for the comprehensive evaluation of LLM agents in the context of technical drawing revision, a representation task in civil engineering. DrafterBench contains twelve types of tasks summarized from real-world drawing files, with 46 customized functions/tools and 1920 tasks in total. DrafterBench is an open-source benchmark to rigorously test AI agents' proficiency in interpreting intricate and long-context instructions, leveraging prior knowledge, and adapting to dynamic instruction quality via implicit policy awareness. The toolkit comprehensively assesses distinct capabilities in structured data comprehension, function execution, instruction following, and critical reasoning. DrafterBench offers detailed analysis of task accuracy and error statistics, aiming to provide deeper insight into agent capabilities and identify improvement targets for integrating LLMs in engineering applications. Our benchmark is available at https://github.com/Eason-Li-AIS/DrafterBench, with the test set hosted at https://huggingface.co/datasets/Eason666/DrafterBench.
PDF181July 17, 2025