ChatPaper.aiChatPaper

Automatische Erkennung: Auf dem Weg zu einem einheitlichen Rahmen für die automatisierte Schwachstellenentdeckung in großen Sprachmodellen

AutoDetect: Towards a Unified Framework for Automated Weakness Detection in Large Language Models

June 24, 2024
Autoren: Jiale Cheng, Yida Lu, Xiaotao Gu, Pei Ke, Xiao Liu, Yuxiao Dong, Hongning Wang, Jie Tang, Minlie Huang
cs.AI

Zusammenfassung

Obwohl Große Sprachmodelle (LLMs) immer leistungsstärker werden, zeigen sie immer noch signifikante, aber subtile Schwächen, wie Fehler bei Anweisungsverfolgung oder Kodierungsaufgaben. Da diese unerwarteten Fehler in praktischen Anwendungen zu schwerwiegenden Konsequenzen führen könnten, ist es entscheidend, die Grenzen von LLMs systematisch zu untersuchen. Traditionelle Benchmarking-Ansätze können spezifische Modelldefizite nicht gründlich identifizieren, während manuelle Inspektionen kostspielig und nicht skalierbar sind. In diesem Papier stellen wir ein einheitliches Framework, AutoDetect, vor, um Schwächen in LLMs automatisch über verschiedene Aufgaben hinweg aufzudecken. Inspiriert vom Bildungsbeurteilungsprozess, der die Lernerfolge von Schülern misst, besteht AutoDetect aus drei LLM-gesteuerten Agenten: Prüfer, Fragesteller und Bewerter. Die Zusammenarbeit dieser drei Agenten ist darauf ausgelegt, eine umfassende und tiefgreifende Schwächenidentifikation zu realisieren. Unser Framework zeigt signifikanten Erfolg bei der Aufdeckung von Mängeln, mit einer Identifikationsrate von über 30% in prominenten Modellen wie ChatGPT und Claude. Noch wichtiger ist, dass diese identifizierten Schwächen konkrete Modellverbesserungen anleiten können, die effektiver sind als ungerichtete Datenaugmentationsmethoden wie Self-Instruct. Unser Ansatz hat zu erheblichen Verbesserungen bei beliebten LLMs geführt, einschließlich der Llama-Serie und Mistral-7b, wodurch ihre Leistung in mehreren Benchmarks um über 10% gesteigert wurde. Code und Daten sind öffentlich unter https://github.com/thu-coai/AutoDetect verfügbar.
English
Although Large Language Models (LLMs) are becoming increasingly powerful, they still exhibit significant but subtle weaknesses, such as mistakes in instruction-following or coding tasks. As these unexpected errors could lead to severe consequences in practical deployments, it is crucial to investigate the limitations within LLMs systematically. Traditional benchmarking approaches cannot thoroughly pinpoint specific model deficiencies, while manual inspections are costly and not scalable. In this paper, we introduce a unified framework, AutoDetect, to automatically expose weaknesses in LLMs across various tasks. Inspired by the educational assessment process that measures students' learning outcomes, AutoDetect consists of three LLM-powered agents: Examiner, Questioner, and Assessor. The collaboration among these three agents is designed to realize comprehensive and in-depth weakness identification. Our framework demonstrates significant success in uncovering flaws, with an identification success rate exceeding 30% in prominent models such as ChatGPT and Claude. More importantly, these identified weaknesses can guide specific model improvements, proving more effective than untargeted data augmentation methods like Self-Instruct. Our approach has led to substantial enhancements in popular LLMs, including the Llama series and Mistral-7b, boosting their performance by over 10% across several benchmarks. Code and data are publicly available at https://github.com/thu-coai/AutoDetect.

Summary

AI-Generated Summary

PDF102November 29, 2024