Diebstahl eines Teils eines Produktions-SprachmodellsStealing Part of a Production Language Model
Wir stellen den ersten Modell-Diebstahl-Angriff vor, der präzise, nicht-triviale Informationen aus Black-Box-Produktions-Sprachmodellen wie OpenAI's ChatGPT oder Google's PaLM-2 extrahiert. Speziell stellt unser Angriff die Einbettungsprojektionsschicht (bis zu Symmetrien) eines Transformer-Modells wieder her, unter Verwendung eines typischen API-Zugriffs. Für weniger als 20 USD extrahiert unser Angriff die gesamte Projektionsmatrix der OpenAI-Modelle Ada und Babbage. Damit bestätigen wir erstmals, dass diese Black-Box-Modelle jeweils eine verborgene Dimension von 1024 bzw. 2048 haben. Wir stellen auch die genaue Größe der verborgenen Dimension des Modells gpt-3.5-turbo wieder her und schätzen, dass es weniger als 2.000 Abfragen kosten würde, um die gesamte Projektionsmatrix wiederherzustellen. Wir schließen mit potenziellen Abwehrmaßnahmen und Minderungsstrategien ab und diskutieren die Auswirkungen möglicher zukünftiger Arbeiten, die unseren Angriff erweitern könnten.