ChatPaper.aiChatPaper

LPZero: Sprachmodell Nullkosten-Proxy-Suche von Null

LPZero: Language Model Zero-cost Proxy Search from Zero

October 7, 2024
Autoren: Peijie Dong, Lujun Li, Xiang Liu, Zhenheng Tang, Xuebo Liu, Qiang Wang, Xiaowen Chu
cs.AI

Zusammenfassung

Trotz der herausragenden Leistung wird die Neural Architecture Search (NAS) für ihre massive Rechenleistung kritisiert. Kürzlich hat sich die Zero-shot NAS als vielversprechender Ansatz herausgestellt, indem sie Zero-cost (ZC) Proxies nutzt, die den Rechenbedarf erheblich reduzieren. Trotzdem basieren bestehende ZC Proxies stark auf Expertenwissen und verursachen erhebliche Versuchs- und Irrtumskosten. Insbesondere bei NLP-Aufgaben können die meisten bestehenden ZC Proxies die Leistung des naiven Baseline nicht übertreffen. Um diese Herausforderungen anzugehen, stellen wir ein neuartiges Framework, LPZero, vor, das als erstes automatisch ZC Proxies für verschiedene Aufgaben entwirft und eine höhere Rangkonsistenz als von Menschen entworfene Proxies erreicht. Speziell modellieren wir den ZC Proxy als eine symbolische Gleichung und integrieren einen vereinheitlichten Proxy-Suchraum, der bestehende ZC Proxies umfasst, die aus einem vordefinierten Satz mathematischer Symbole bestehen. Um heuristisch nach dem besten ZC Proxy zu suchen, verwendet LPZero genetische Programmierung, um die optimale symbolische Zusammensetzung zu finden. Wir schlagen eine regelbasierte Beschneidungsstrategie (RPS) vor, die vielversprechende Proxies vorzeitig eliminiert und so das Risiko einer Proxy-Verschlechterung mindert. Umfangreiche Experimente mit FlexiBERT, GPT-2 und LLaMA-7B zeigen die überlegene Rangfähigkeit und Leistung von LPZero bei nachgelagerten Aufgaben im Vergleich zu aktuellen Ansätzen.
English
In spite of the outstanding performance, Neural Architecture Search (NAS) is criticized for massive computation. Recently, Zero-shot NAS has emerged as a promising approach by exploiting Zero-cost (ZC) proxies, which markedly reduce computational demands. Despite this, existing ZC proxies heavily rely on expert knowledge and incur significant trial-and-error costs. Particularly in NLP tasks, most existing ZC proxies fail to surpass the performance of the naive baseline. To address these challenges, we introduce a novel framework, LPZero, which is the first to automatically design ZC proxies for various tasks, achieving higher ranking consistency than human-designed proxies. Specifically, we model the ZC proxy as a symbolic equation and incorporate a unified proxy search space that encompasses existing ZC proxies, which are composed of a predefined set of mathematical symbols. To heuristically search for the best ZC proxy, LPZero incorporates genetic programming to find the optimal symbolic composition. We propose a Rule-based Pruning Strategy (RPS), which preemptively eliminates unpromising proxies, thereby mitigating the risk of proxy degradation. Extensive experiments on FlexiBERT, GPT-2, and LLaMA-7B demonstrate LPZero's superior ranking ability and performance on downstream tasks compared to current approaches.

Summary

AI-Generated Summary

PDF22November 16, 2024