ChatPaper.aiChatPaper

Effizientes Training auf mehreren Consumer-GPUs mit RoundPipe

Efficient Training on Multiple Consumer GPUs with RoundPipe

April 29, 2026
Autoren: Yibin Luo, Shiwei Gao, Huichuan Zheng, Youyou Lu, Jiwu Shu
cs.AI

Zusammenfassung

Das Feinabstimmen großer Sprachmodelle (LLMs) auf Consumer-GPUs ist äußerst kosteneffizient, wird jedoch durch begrenzten GPU-Speicher und langsame PCIe-Verbindungen eingeschränkt. Pipeline-Parallelismus in Kombination mit CPU-Offloading mildert diese Hardwareengpässe durch Reduzierung des Kommunikationsoverheads. Allerdings leiden bestehende PP-Schedules unter einer inherenten Limitation, dem sogenannten Weight-Binding-Problem. Das Binden ungleichmäßiger Modellstufen (z.B. ist der LM-Head groß) an GPUs begrenzt den Durchsatz der Pipeline auf den der GPU mit der höchsten Last, was zu schwerwiegenden Pipeline-Bläsern führt. In diesem Artikel stellen wir RoundPipe vor, einen neuartigen Pipeline-Schedule, der die Weight-Binding-Beschränkung auf Consumer-GPU-Servern aufhebt. RoundPipe behandelt GPUs als Pool zustandsloser Ausführungs-Worker und verteilt Rechenstufen dynamisch in Round-Robin-Manier über die Geräte, wodurch eine nahezu blasenfreie Pipeline erreicht wird. Um Trainingskorrektheit und Systemeffizienz zu gewährleisten, integriert RoundPipe eine prioritätsbewusste Transfer-Planungs-Engine, ein fein granuläres, verteiltes, ereignisbasiertes Synchronisationsprotokoll und einen automatischen Layer-Partitionierungsalgorithmus. Evaluationen auf einem 8x RTX 4090-Server zeigen, dass RoundPipe bei der Feinabstimmung von 1,7B- bis 32B-Modellen eine 1,48- bis 2,16-fache Beschleunigung gegenüber state-of-the-art Baseline-Methoden erzielt. Bemerkenswerterweise ermöglicht RoundPipe das LoRA-Finetuning des Qwen3-235B-Modells mit 31K Sequenzlänge auf einem einzelnen Server. RoundPipe ist als Open-Source-Python-Bibliothek mit umfassender Dokumentation öffentlich verfügbar.
English
Fine-tuning Large Language Models (LLMs) on consumer-grade GPUs is highly cost-effective, yet constrained by limited GPU memory and slow PCIe interconnects. Pipeline parallelism combined with CPU offloading mitigates these hardware bottlenecks by reducing communication overhead. However, existing PP schedules suffer from an inherent limitation termed the weight binding issue. Binding uneven model stages (e.g., the LM head is large) to GPUs limits the pipeline's throughput to that of the GPU with the heaviest load, leading to severe pipeline bubbles. In this paper, we propose RoundPipe, a novel pipeline schedule that breaks the weight binding constraint on consumer GPU servers. RoundPipe treats GPUs as a pool of stateless execution workers and dynamically dispatches computation stages across devices in a round-robin manner, achieving a near-zero-bubble pipeline. To ensure training correctness and system efficiency, RoundPipe integrates a priority-aware transfer scheduling engine, a fine-grained distributed event-based synchronization protocol, and an automated layer partitioning algorithm. Evaluations on an 8times RTX 4090 server demonstrate that RoundPipe achieves 1.48--2.16times speedups over state-of-the-art baselines when fine-tuning 1.7B to 32B models. Remarkably, RoundPipe enables LoRA fine-tuning of the Qwen3-235B model with 31K sequence length on a single server. RoundPipe is publicly available as an open-source Python library with comprehensive documentation.
PDF241May 2, 2026