ChatPaper.aiChatPaper

REGEN: Echtzeit-Photorealismus-Verbesserung in Spielen durch ein Dual-Stufen-Generatives-Netzwerk-Framework

REGEN: Real-Time Photorealism Enhancement in Games via a Dual-Stage Generative Network Framework

August 23, 2025
papers.authors: Stefanos Pasios, Nikos Nikolaidis
cs.AI

papers.abstract

Fotorealismus ist ein wichtiger Aspekt moderner Videospiele, da er das Spielerlebnis prägen und gleichzeitig die Immersion, die narrative Bindung und die visuelle Qualität beeinflussen kann. Obwohl jüngste Durchbrüche in der Hardwaretechnologie zusammen mit modernsten Rendering-Technologien den visuellen Realismus von Videospielen erheblich verbessert haben, bleibt die Erzielung von echtem Fotorealismus in dynamischen Umgebungen bei Echtzeit-Bildraten aufgrund des Kompromisses zwischen visueller Qualität und Leistung eine große Herausforderung. In diesem kurzen Beitrag stellen wir einen neuartigen Ansatz zur Steigerung des Fotorealismus gerenderter Spielbilder mithilfe von generativen adversen Netzwerken vor. Zu diesem Zweck schlagen wir das Framework „Real-time Photorealism Enhancement in Games via a dual-stage gEnerative Network“ (REGEN) vor, das ein robustes ungepaartes Bild-zu-Bild-Übersetzungsmodell verwendet, um semantisch konsistente fotorealistische Bilder zu erzeugen, wodurch das Problem in eine einfachere gepaarte Bild-zu-Bild-Übersetzungsaufgabe transformiert wird. Dies ermöglicht das Training mit einer leichtgewichtigen Methode, die Echtzeit-Inferenzzeiten erreichen kann, ohne die visuelle Qualität zu beeinträchtigen. Wir demonstrieren die Wirksamkeit unseres Frameworks anhand von Grand Theft Auto V und zeigen, dass der Ansatz visuelle Ergebnisse erzielt, die mit denen der robusten ungepaarten Im2Im-Methode vergleichbar sind, während die Inferenzgeschwindigkeit um das 32,14-fache verbessert wird. Unsere Ergebnisse deuten auch darauf hin, dass die Ergebnisse die fotorealistisch verbesserten Bilder übertreffen, die durch das direkte Training einer leichtgewichtigen ungepaarten Im2Im-Übersetzungsmethode zur Übersetzung der Videospielbilder in Richtung der visuellen Eigenschaften realer Bilder erzeugt werden. Code, vortrainierte Modelle und Demos für diese Arbeit sind verfügbar unter: https://github.com/stefanos50/REGEN.
English
Photorealism is an important aspect of modern video games since it can shape the player experience and simultaneously impact the immersion, narrative engagement, and visual fidelity. Although recent hardware technological breakthroughs, along with state-of-the-art rendering technologies, have significantly improved the visual realism of video games, achieving true photorealism in dynamic environments at real-time frame rates still remains a major challenge due to the tradeoff between visual quality and performance. In this short paper, we present a novel approach for enhancing the photorealism of rendered game frames using generative adversarial networks. To this end, we propose Real-time photorealism Enhancement in Games via a dual-stage gEnerative Network framework (REGEN), which employs a robust unpaired image-to-image translation model to produce semantically consistent photorealistic frames that transform the problem into a simpler paired image-to-image translation task. This enables training with a lightweight method that can achieve real-time inference time without compromising visual quality. We demonstrate the effectiveness of our framework on Grand Theft Auto V, showing that the approach achieves visual results comparable to the ones produced by the robust unpaired Im2Im method while improving inference speed by 32.14 times. Our findings also indicate that the results outperform the photorealism-enhanced frames produced by directly training a lightweight unpaired Im2Im translation method to translate the video game frames towards the visual characteristics of real-world images. Code, pre-trained models, and demos for this work are available at: https://github.com/stefanos50/REGEN.
PDF01August 26, 2025