ChatPaper.aiChatPaper

Die Hypothese der seriellen Skalierung

The Serial Scaling Hypothesis

July 16, 2025
papers.authors: Yuxi Liu, Konpat Preechakul, Kananart Kuwaranancharoen, Yutong Bai
cs.AI

papers.abstract

Während das maschinelle Lernen durch massive Parallelisierung vorangeschritten ist, identifizieren wir einen kritischen blinden Fleck: Einige Probleme sind grundsätzlich sequenzieller Natur. Diese „inhärent seriellen“ Probleme – von mathematischem Denken über physikalische Simulationen bis hin zu sequenzieller Entscheidungsfindung – erfordern voneinander abhängige Berechnungsschritte, die nicht parallelisiert werden können. Ausgehend von der Komplexitätstheorie formalisieren wir diese Unterscheidung und zeigen, dass aktuelle parallelzentrierte Architekturen bei solchen Aufgaben grundlegende Grenzen aufweisen. Wir argumentieren, dass die Anerkennung der seriellen Natur der Berechnung tiefgreifende Auswirkungen auf das maschinelle Lernen, das Modelldesign und die Hardwareentwicklung hat. Da die KI zunehmend komplexe Denkprozesse bewältigt, ist die gezielte Skalierung serieller Berechnungen – nicht nur paralleler Berechnungen – entscheidend für den weiteren Fortschritt.
English
While machine learning has advanced through massive parallelization, we identify a critical blind spot: some problems are fundamentally sequential. These "inherently serial" problems-from mathematical reasoning to physical simulations to sequential decision-making-require dependent computational steps that cannot be parallelized. Drawing from complexity theory, we formalize this distinction and demonstrate that current parallel-centric architectures face fundamental limitations on such tasks. We argue that recognizing the serial nature of computation holds profound implications on machine learning, model design, hardware development. As AI tackles increasingly complex reasoning, deliberately scaling serial computation-not just parallel computation-is essential for continued progress.
PDF81July 22, 2025