ChatPaper.aiChatPaper

REGEN: Real-Time Fotorealistische Verbetering in Spellen via een Dual-Stage Generatief Netwerkraamwerk

REGEN: Real-Time Photorealism Enhancement in Games via a Dual-Stage Generative Network Framework

August 23, 2025
Auteurs: Stefanos Pasios, Nikos Nikolaidis
cs.AI

Samenvatting

Fotorealisme is een belangrijk aspect van moderne videogames, omdat het de spelervaring kan vormgeven en tegelijkertijd de immersie, narratieve betrokkenheid en visuele kwaliteit kan beïnvloeden. Hoewel recente doorbraken in hardwaretechnologie, samen met state-of-the-art renderingtechnologieën, de visuele realiteit van videogames aanzienlijk hebben verbeterd, blijft het bereiken van echt fotorealisme in dynamische omgevingen met real-time frame rates een grote uitdaging vanwege de afweging tussen visuele kwaliteit en prestaties. In dit korte artikel presenteren we een nieuwe aanpak om het fotorealisme van gerenderde gameframes te verbeteren met behulp van generatieve adversariële netwerken. Hiertoe stellen we Real-time Photorealism Enhancement in Games via een dual-stage gEnerative Network framework (REGEN) voor, dat een robuust ongepaard beeld-naar-beeld vertaalmodel gebruikt om semantisch consistente fotorealistische frames te produceren, waardoor het probleem wordt omgezet in een eenvoudiger gepaard beeld-naar-beeld vertaaltaak. Dit maakt training mogelijk met een lichtgewicht methode die real-time inferentietijd kan bereiken zonder in te leveren op visuele kwaliteit. We demonstreren de effectiviteit van ons framework op Grand Theft Auto V, waarbij we laten zien dat de aanpak visuele resultaten bereikt die vergelijkbaar zijn met die geproduceerd door het robuuste ongepaarde Im2Im-model, terwijl de inferentiesnelheid met 32,14 keer wordt verbeterd. Onze bevindingen geven ook aan dat de resultaten de fotorealistische frames overtreffen die worden geproduceerd door direct een lichtgewicht ongepaard Im2Im-vertaalmodel te trainen om de videogameframes te vertalen naar de visuele kenmerken van real-world beelden. Code, vooraf getrainde modellen en demo's voor dit werk zijn beschikbaar op: https://github.com/stefanos50/REGEN.
English
Photorealism is an important aspect of modern video games since it can shape the player experience and simultaneously impact the immersion, narrative engagement, and visual fidelity. Although recent hardware technological breakthroughs, along with state-of-the-art rendering technologies, have significantly improved the visual realism of video games, achieving true photorealism in dynamic environments at real-time frame rates still remains a major challenge due to the tradeoff between visual quality and performance. In this short paper, we present a novel approach for enhancing the photorealism of rendered game frames using generative adversarial networks. To this end, we propose Real-time photorealism Enhancement in Games via a dual-stage gEnerative Network framework (REGEN), which employs a robust unpaired image-to-image translation model to produce semantically consistent photorealistic frames that transform the problem into a simpler paired image-to-image translation task. This enables training with a lightweight method that can achieve real-time inference time without compromising visual quality. We demonstrate the effectiveness of our framework on Grand Theft Auto V, showing that the approach achieves visual results comparable to the ones produced by the robust unpaired Im2Im method while improving inference speed by 32.14 times. Our findings also indicate that the results outperform the photorealism-enhanced frames produced by directly training a lightweight unpaired Im2Im translation method to translate the video game frames towards the visual characteristics of real-world images. Code, pre-trained models, and demos for this work are available at: https://github.com/stefanos50/REGEN.
PDF02August 26, 2025