Ästhetische Anpassung riskiert Assimilation: Wie Bildgenerierung und Belohnungsmodelle Schönheitsbias und ideologische „Zensur“ verstärken
Aesthetic Alignment Risks Assimilation: How Image Generation and Reward Models Reinforce Beauty Bias and Ideological "Censorship"
December 9, 2025
papers.authors: Wenqi Marshall Guo, Qingyun Qian, Khalad Hasan, Shan Du
cs.AI
papers.abstract
Eine übermäßige Ausrichtung von Bildgenerierungsmodellen an einem verallgemeinerten ästhetischen Präferenzmodell steht im Widerspruch zur Nutzerabsicht, insbesondere wenn aus künstlerischen oder kritischen Gründen explizit „anti-ästhetische“ Ergebnisse angefordert werden. Diese Ausrichtung priorisiert entwicklerzentrierte Werte und beeinträchtigt sowohl die Nutzerautonomie als auch den ästhetischen Pluralismus. Wir testen diese Verzerrung, indem wir ein Breitband-Ästhetik-Datenset konstruieren und state-of-the-art Generierungs- und Bewertungsmodelle evaluieren. Wir zeigen, dass ästhetisch ausgerichtete Generierungsmodelle häufig standardmäßig konventionell schöne Ergebnisse liefern und damit Anweisungen für niedrigqualitative oder negative Bildinhalte nicht ausreichend umsetzen. Entscheidend ist, dass Bewertungsmodelle anti-ästhetische Bilder bestrafen, selbst wenn diese exakt der expliziten Nutzeranfrage entsprechen. Wir bestätigen diese systemische Verzerrung durch Bild-zu-Bild-Bearbeitung und Evaluation anhand realer abstrakter Kunstwerke.
English
Over-aligning image generation models to a generalized aesthetic preference conflicts with user intent, particularly when ``anti-aesthetic" outputs are requested for artistic or critical purposes. This adherence prioritizes developer-centered values, compromising user autonomy and aesthetic pluralism. We test this bias by constructing a wide-spectrum aesthetics dataset and evaluating state-of-the-art generation and reward models. We find that aesthetic-aligned generation models frequently default to conventionally beautiful outputs, failing to respect instructions for low-quality or negative imagery. Crucially, reward models penalize anti-aesthetic images even when they perfectly match the explicit user prompt. We confirm this systemic bias through image-to-image editing and evaluation against real abstract artworks.