ChatPaper.aiChatPaper.ai
Startseite

arXiv

HuggingFace

PreiseKontoArbeitsbereich

•
•

•
•

•
•

•
•

•
•

Footer

Company name

ChatPaper.ai: Your advanced AI reading assistant.

Contact us: [email protected]

X (Twitter)

Products

  • AI Search
  • AI Mind Map
  • Arxiv Summary
  • Huggingface Summary

Support

  • FAQ
  • Contact

Company

  • Blog
  • Privacy Policy
  • Terms of Service

Available Languages

  • 🇬🇧English
  • 🇨🇳中文简体
  • 🇭🇰繁體中文
  • 🇯🇵日本語
  • 🇰🇷한국어
  • 🇩🇪Deutsch
  • 🇫🇷Français
  • 🇷🇺Русский
  • 🇪🇸Español

© 2025 chatpaper.ai All rights reserved.

KI-Forschungspapiere Täglich

Täglich kuratierte KI-Forschungspapiere mit Übersetzungen

Jenseits der 80/20-Regel: Hoch-entropische Minderheitstokens treiben effektives Reinforcement Learning für das Reasoning von LLMs voran
Beyond the 80/20 Rule: High-Entropy Minority Tokens Drive Effective Reinforcement Learning for LLM Reasoning

Shenzhi Wang, Le Yu, Chang Gao, Chujie Zheng, Shixuan Liu, Rui Lu, Kai Dang, Xionghui Chen, Jianxin Yang, Zhenru Zhang, Yuqiong Liu, An Yang, Andrew Zhao, Yang Yue, Shiji Song, Bowen Yu, Gao Huang, Junyang Lin•Jun 2, 2025•1293

SmolVLA: Ein Vision-Sprache-Handlungs-Modell für kostengünstige und effiziente Robotik
SmolVLA: A Vision-Language-Action Model for Affordable and Efficient Robotics

Mustafa Shukor, Dana Aubakirova, Francesco Capuano, Pepijn Kooijmans, Steven Palma, Adil Zouitine, Michel Aractingi, Caroline Pascal, Martino Russi, Andres Marafioti, Simon Alibert, Matthieu Cord, Thomas Wolf, Remi Cadene•Jun 2, 2025•7414

REASONING GYM: Umgebungen für logisches Denken im Reinforcement Learning mit verifizierbaren Belohnungen
REASONING GYM: Reasoning Environments for Reinforcement Learning with Verifiable Rewards

Zafir Stojanovski, Oliver Stanley, Joe Sharratt, Richard Jones, Abdulhakeem Adefioye, Jean Kaddour, Andreas Köpf•May 30, 2025•584

Zähmung von LLMs durch Skalierung der Lernraten mit Gradientengruppierung
Taming LLMs by Scaling Learning Rates with Gradient Grouping

Siyuan Li, Juanxi Tian, Zedong Wang, Xin Jin, Zicheng Liu, Wentao Zhang, Dan Xu•Jun 1, 2025•354

Temporale In-Context-Feinabstimmung für vielseitige Steuerung von Video-Diffusionsmodellen
Temporal In-Context Fine-Tuning for Versatile Control of Video Diffusion Models

Kinam Kim, Junha Hyung, Jaegul Choo•Jun 1, 2025•343

SRPO: Verbesserung des multimodalen LLM-Reasonings durch reflexionsbewusstes Reinforcement Learning
SRPO: Enhancing Multimodal LLM Reasoning via Reflection-Aware Reinforcement Learning

Zhongwei Wan, Zhihao Dou, Che Liu, Yu Zhang, Dongfei Cui, Qinjian Zhao, Hui Shen, Jing Xiong, Yi Xin, Yifan Jiang, Yangfan He, Mi Zhang, Shen Yan•Jun 2, 2025•302

ShapeLLM-Omni: Ein natives multimodales LLM für 3D-Generierung und -Verständnis
ShapeLLM-Omni: A Native Multimodal LLM for 3D Generation and Understanding

Junliang Ye, Zhengyi Wang, Ruowen Zhao, Shenghao Xie, Jun Zhu•Jun 2, 2025•272

ARIA: Training von Sprachagenten mit intentionsgetriebener Belohnungsaggregation
ARIA: Training Language Agents with Intention-Driven Reward Aggregation

Ruihan Yang, Yikai Zhang, Aili Chen, Xintao Wang, Siyu Yuan, Jiangjie Chen, Deqing Yang, Yanghua Xiao•May 31, 2025•272

LoHoVLA: Ein einheitliches Vision-Sprache-Handlungs-Modell für langfristige verkörperte Aufgaben
LoHoVLA: A Unified Vision-Language-Action Model for Long-Horizon Embodied Tasks

Yi Yang, Jiaxuan Sun, Siqi Kou, Yihan Wang, Zhijie Deng•May 31, 2025•272

Jigsaw-R1: Eine Studie zur regelbasierten visuellen Verstärkungslernmethode mit Jigsaw-Puzzles
Jigsaw-R1: A Study of Rule-based Visual Reinforcement Learning with Jigsaw Puzzles

Zifu Wang, Junyi Zhu, Bo Tang, Zhiyu Li, Feiyu Xiong, Jiaqian Yu, Matthew B. Blaschko•May 29, 2025•242

Lernen der Videogenerierung für robotische Manipulation mit kollaborativer Trajektoriensteuerung
Learning Video Generation for Robotic Manipulation with Collaborative Trajectory Control

Xiao Fu, Xintao Wang, Xian Liu, Jianhong Bai, Runsen Xu, Pengfei Wan, Di Zhang, Dahua Lin•Jun 2, 2025•232

EarthMind: Auf dem Weg zu multi-granularer und multi-sensorischer Erdbeobachtung mit großen multimodalen Modellen
EarthMind: Towards Multi-Granular and Multi-Sensor Earth Observation with Large Multimodal Models

Yan Shu, Bin Ren, Zhitong Xiong, Danda Pani Paudel, Luc Van Gool, Begum Demir, Nicu Sebe, Paolo Rota•Jun 2, 2025•202

AReaL: Ein groß angelegtes asynchrones Reinforcement-Learning-System für Sprachlogik
AReaL: A Large-Scale Asynchronous Reinforcement Learning System for Language Reasoning

Wei Fu, Jiaxuan Gao, Xujie Shen, Chen Zhu, Zhiyu Mei, Chuyi He, Shusheng Xu, Guo Wei, Jun Mei, Jiashu Wang, Tongkai Yang, Binhang Yuan, Yi Wu•May 30, 2025•202

Einheitliche Skalierungsgesetze für komprimierte Darstellungen
Unified Scaling Laws for Compressed Representations

Andrei Panferov, Alexandra Volkova, Ionut-Vlad Modoranu, Vage Egiazarian, Mher Safaryan, Dan Alistarh•Jun 2, 2025•172

MiCRo: Mischungsmodellierung und kontextbewusstes Routing zur personalisierten Präferenzlernens
MiCRo: Mixture Modeling and Context-aware Routing for Personalized Preference Learning

Jingyan Shen, Jiarui Yao, Rui Yang, Yifan Sun, Feng Luo, Rui Pan, Tong Zhang, Han Zhao•May 30, 2025•152

Anreize für das logische Denken zur Förderung der fortgeschrittenen Befolgung von Anweisungen durch große Sprachmodelle
Incentivizing Reasoning for Advanced Instruction-Following of Large Language Models

Yulei Qin, Gang Li, Zongyi Li, Zihan Xu, Yuchen Shi, Zhekai Lin, Xiao Cui, Ke Li, Xing Sun•Jun 2, 2025•142

IVY-FAKE: Ein einheitliches erklärbares Framework und Benchmark für die Erkennung von Bild- und Video-AIGC
IVY-FAKE: A Unified Explainable Framework and Benchmark for Image and Video AIGC Detection

Wayne Zhang, Changjiang Jiang, Zhonghao Zhang, Chenyang Si, Fengchang Yu, Wei Peng•Jun 1, 2025•133

Vom Token zur Aktion: Zustandsautomaten-basiertes Denken zur Minderung von Überdenken in der Informationsgewinnung
From Token to Action: State Machine Reasoning to Mitigate Overthinking in Information Retrieval

Dohyeon Lee, Yeonseok Jeong, Seung-won Hwang•May 29, 2025•132

Denken wie ein Ökonom: Nachträgliches Training an wirtschaftlichen Problemen induziert strategische Generalisierung in LLMs
Reasoning Like an Economist: Post-Training on Economic Problems Induces Strategic Generalization in LLMs

Yufa Zhou, Shaobo Wang, Xingyu Dong, Xiangqi Jin, Yifang Chen, Yue Min, Kexin Yang, Xingzhang Ren, Dayiheng Liu, Linfeng Zhang•May 31, 2025•112

Cora: Korrespondenzbewusste Bildbearbeitung mit wenigen Diffusionsschritten
Cora: Correspondence-aware image editing using few step diffusion

Amirhossein Almohammadi, Aryan Mikaeili, Sauradip Nag, Negar Hassanpour, Andrea Tagliasacchi, Ali Mahdavi-Amiri•May 29, 2025•112

WebChoreArena: Bewertung von Web-Browsing-Agenten bei realistischen, monotonen Web-Aufgaben
WebChoreArena: Evaluating Web Browsing Agents on Realistic Tedious Web Tasks

Atsuyuki Miyai, Zaiying Zhao, Kazuki Egashira, Atsuki Sato, Tatsumi Sunada, Shota Onohara, Hiromasa Yamanishi, Mashiro Toyooka, Kunato Nishina, Ryoma Maeda, Kiyoharu Aizawa, Toshihiko Yamasaki•Jun 2, 2025•103

VisualSphinx: Groß angelegte synthetische visuelle Logikrätsel für RL
VisualSphinx: Large-Scale Synthetic Vision Logic Puzzles for RL

Yichen Feng, Zhangchen Xu, Fengqing Jiang, Yuetai Li, Bhaskar Ramasubramanian, Luyao Niu, Bill Yuchen Lin, Radha Poovendran•May 29, 2025•92

OWSM v4: Verbesserung von Open Whisper-Style-Sprachmodellen durch Daten-Skalierung und -Bereinigung
OWSM v4: Improving Open Whisper-Style Speech Models via Data Scaling and Cleaning

Yifan Peng, Shakeel Muhammad, Yui Sudo, William Chen, Jinchuan Tian, Chyi-Jiunn Lin, Shinji Watanabe•May 31, 2025•82

Lernen aus Videos für die 3D-Welt: Verbesserung von MLLMs durch 3D-Vision-Geometrie-Priors
Learning from Videos for 3D World: Enhancing MLLMs with 3D Vision Geometry Priors

Duo Zheng, Shijia Huang, Yanyang Li, Liwei Wang•May 30, 2025•82

Stresstests zur Erkennung maschinell erzeugter Texte: Veränderung des Schreibstils von Sprachmodellen zur Täuschung von Detektoren
Stress-testing Machine Generated Text Detection: Shifting Language Models Writing Style to Fool Detectors

Andrea Pedrotti, Michele Papucci, Cristiano Ciaccio, Alessio Miaschi, Giovanni Puccetti, Felice Dell'Orletta, Andrea Esuli•May 30, 2025•82

CodeV-R1: Verilog-Generierung mit verbessertem Reasoning
CodeV-R1: Reasoning-Enhanced Verilog Generation

Yaoyu Zhu, Di Huang, Hanqi Lyu, Xiaoyun Zhang, Chongxiao Li, Wenxuan Shi, Yutong Wu, Jianan Mu, Jinghua Wang, Yang Zhao, Pengwei Jin, Shuyao Cheng, Shengwen Liang, Xishan Zhang, Rui Zhang, Zidong Du, Qi Guo, Xing Hu, Yunji Chen•May 30, 2025•82

DyePack: Nachweisliche Erkennung von Testdatenkontamination in LLMs mithilfe von Backdoors
DyePack: Provably Flagging Test Set Contamination in LLMs Using Backdoors

Yize Cheng, Wenxiao Wang, Mazda Moayeri, Soheil Feizi•May 29, 2025•82

Normalisierte Aufmerksamkeitssteuerung: Universelle negative Steuerung für Diffusionsmodelle
Normalized Attention Guidance: Universal Negative Guidance for Diffusion Model

Dar-Yen Chen, Hmrishav Bandyopadhyay, Kai Zou, Yi-Zhe Song•May 27, 2025•83

Esoterische Sprachmodelle
Esoteric Language Models

Subham Sekhar Sahoo, Zhihan Yang, Yash Akhauri, Johnna Liu, Deepansha Singh, Zhoujun Cheng, Zhengzhong Liu, Eric Xing, John Thickstun, Arash Vahdat•Jun 2, 2025•72

zip2zip: Inferenzzeit-adaptive Vokabulare für Sprachmodelle durch Token-Kompression
zip2zip: Inference-Time Adaptive Vocabularies for Language Models via Token Compression

Saibo Geng, Nathan Ranchin, Yunzhen yao, Maxime Peyrard, Chris Wendler, Michael Gastpar, Robert West•Jun 1, 2025•72

Darwin-Gödel-Maschine: Offene Evolution selbstverbessernder Agenten
Darwin Godel Machine: Open-Ended Evolution of Self-Improving Agents

Jenny Zhang, Shengran Hu, Cong Lu, Robert Lange, Jeff Clune•May 29, 2025•72

WANN HANDELN, WANN WARTEN: Modellierung struktureller Trajektorien für die Auslösbarkeit von Intentionen in aufgabenorientierten Dialogen
WHEN TO ACT, WHEN TO WAIT: Modeling Structural Trajectories for Intent Triggerability in Task-Oriented Dialogue

Yaoyao Qian, Jindan Huang, Yuanli Wang, Simon Yu, Kyrie Zhixuan Zhou, Jiayuan Mao, Mingfu Liang, Hanhan Zhou•Jun 2, 2025•62

Kaskadierender adverser Bias von der Injektion zur Destillation in Sprachmodellen
Cascading Adversarial Bias from Injection to Distillation in Language Models

Harsh Chaudhari, Jamie Hayes, Matthew Jagielski, Ilia Shumailov, Milad Nasr, Alina Oprea•May 30, 2025•62

VAU-R1: Fortschritt im Verständnis von Videoanomalien durch Reinforcement-Fine-Tuning
VAU-R1: Advancing Video Anomaly Understanding via Reinforcement Fine-Tuning

Liyun Zhu, Qixiang Chen, Xi Shen, Xiaodong Cun•May 29, 2025•62

SATA-BENCH: Benchmark für Multiple-Choice-Fragen mit der Option „Alles Zutreffende auswählen“
SATA-BENCH: Select All That Apply Benchmark for Multiple Choice Questions

Weijie Xu, Shixian Cui, Xi Fang, Chi Xue, Stephanie Eckman, Chandan Reddy•May 31, 2025•52

Pro3D-Editor: Eine Progressive-Views-Perspektive für konsistentes und präzises 3D-Editing
Pro3D-Editor : A Progressive-Views Perspective for Consistent and Precise 3D Editing

Yang Zheng, Mengqi Huang, Nan Chen, Zhendong Mao•May 31, 2025•52

Stepsize anything: Ein einheitlicher Lernratenplan für das Training mit begrenzter Iterationsanzahl
Stepsize anything: A unified learning rate schedule for budgeted-iteration training

Anda Tang, Yiming Dong, Yutao Zeng, zhou Xun, Zhouchen Lin•May 30, 2025•52

Von Leitlinien zur Praxis: Ein neues Paradigma für die Bewertung von Sprachmodellen für das Arabische
From Guidelines to Practice: A New Paradigm for Arabic Language Model Evaluation

Serry Sibaee, Omer Nacar, Adel Ammar, Yasser Al-Habashi, Abdulrahman Al-Batati, Wadii Boulila•Jun 2, 2025•43

Von Leitlinien zur Praxis: Ein neues Paradigma für die Bewertung von Sprachmodellen für das Arabische
From Guidelines to Practice: A New Paradigm for Arabic Language Model Evaluation

Serry Sibaee, Omer Nacar, Adel Ammar, Yasser Al-Habashi, Abdulrahman Al-Batati, Wadii Boulila•Jun 2, 2025•43

LLM in the Loop: Erstellung des PARADEHATE-Datensatzes zur Entgiftung von Hassrede
LLM in the Loop: Creating the PARADEHATE Dataset for Hate Speech Detoxification

Shuzhou Yuan, Ercong Nie, Lukas Kouba, Ashish Yashwanth Kangen, Helmut Schmid, Hinrich Schutze, Michael Farber•Jun 2, 2025•43

RARE: Retrieval-bewusste Robustheitsbewertung für Retrieval-augmentierte Generierungssysteme
RARE: Retrieval-Aware Robustness Evaluation for Retrieval-Augmented Generation Systems

Yixiao Zeng, Tianyu Cao, Danqing Wang, Xinran Zhao, Zimeng Qiu, Morteza Ziyadi, Tongshuang Wu, Lei Li•Jun 1, 2025•42

ComposeAnything: Zusammengesetzte Objekt-Priors für die Text-zu-Bild-Generierung
ComposeAnything: Composite Object Priors for Text-to-Image Generation

Zeeshan Khan, Shizhe Chen, Cordelia Schmid•May 30, 2025•43

OmniResponse: Online-Multimodale Konversationsantwortgenerierung in dyadischen Interaktionen
OmniResponse: Online Multimodal Conversational Response Generation in Dyadic Interactions

Cheng Luo, Jianghui Wang, Bing Li, Siyang Song, Bernard Ghanem•May 27, 2025•42

Wie Programmierkonzepte und Neuronen in Code-Sprachmodellen geteilt werden
How Programming Concepts and Neurons Are Shared in Code Language Models

Amir Hossein Kargaran, Yihong Liu, François Yvon, Hinrich Schütze•Jun 1, 2025•32

SealQA: Die Messlatte für das logische Denken in suchverstärkten Sprachmodellen höher legen
SealQA: Raising the Bar for Reasoning in Search-Augmented Language Models

Thinh Pham, Nguyen Nguyen, Pratibha Zunjare, Weiyuan Chen, Yu-Min Tseng, Tu Vu•Jun 1, 2025•32

Fallstricke bei der Bewertung von Sprachmodell-Vorhersagen
Pitfalls in Evaluating Language Model Forecasters

Daniel Paleka, Shashwat Goel, Jonas Geiping, Florian Tramèr•May 31, 2025•32

SenseFlow: Skalierung der Verteilungsanpassung für flussbasierte Text-zu-Bild-Destillation
SenseFlow: Scaling Distribution Matching for Flow-based Text-to-Image Distillation

Xingtong Ge, Xin Zhang, Tongda Xu, Yi Zhang, Xinjie Zhang, Yan Wang, Jun Zhang•May 31, 2025•32

MaskSearch: Ein universelles Pre-Training-Framework zur Verbesserung der agentenbasierten Suchfähigkeit
MaskSearch: A Universal Pre-Training Framework to Enhance Agentic Search Capability

Weiqi Wu, Xin Guan, Shen Huang, Yong Jiang, Pengjun Xie, Fei Huang, Jiuxin Cao, Hai Zhao, Jingren Zhou•May 26, 2025•32

Denk nochmal! Der Einfluss von Rechenleistung zur Testzeit auf Präferenzen, Meinungen und Überzeugungen großer Sprachmodelle
Think Again! The Effect of Test-Time Compute on Preferences, Opinions, and Beliefs of Large Language Models

George Kour, Itay Nakash, Ateret Anaby-Tavor, Michal Shmueli-Scheuer•May 26, 2025•32

Abstimmung von VLM-Assistenten mit personalisierter situierter Kognition
Aligning VLM Assistants with Personalized Situated Cognition

Yongqi Li, Shen Zhou, Xiaohu Li, Xin Miao, Jintao Wen, Mayi Xu, Jianhao Chen, Birong Pan, Hankun Kang, Yuanyuan Zhu, Ming Zhong, Tieyun Qian•Jun 1, 2025•22

LIFT den Schleier für die Wahrheit: Hauptgewichte entstehen nach der Rangreduktion für auf das Schlussfolgern ausgerichtetes überwachtes Feinabstimmen
LIFT the Veil for the Truth: Principal Weights Emerge after Rank Reduction for Reasoning-Focused Supervised Fine-Tuning

Zihang Liu, Tianyu Pang, Oleg Balabanov, Chaoqun Yang, Tianjin Huang, Lu Yin, Yaoqing Yang, Shiwei Liu•Jun 1, 2025•22

CityLens: Benchmarking von großen Sprach-Bild-Modellen für die urbane sozioökonomische Wahrnehmung
CityLens: Benchmarking Large Language-Vision Models for Urban Socioeconomic Sensing

Tianhui Liu, Jie Feng, Hetian Pang, Xin Zhang, Tianjian Ouyang, Zhiyuan Zhang, Yong Li•May 31, 2025•22

Massiv mehrsprachige Anpassung großer Sprachmodelle unter Verwendung bilingualer Übersetzungsdaten
Massively Multilingual Adaptation of Large Language Models Using Bilingual Translation Data

Shaoxiong Ji, Zihao Li, Jaakko Paavola, Indraneil Paul, Hengyu Luo, Jörg Tiedemann•May 31, 2025•22

MagiCodec: Einfacher maskierter Gauß-injizierter Codec für hochwertige Rekonstruktion und Generierung
MagiCodec: Simple Masked Gaussian-Injected Codec for High-Fidelity Reconstruction and Generation

Yakun Song, Jiawei Chen, Xiaobin Zhuang, Chenpeng Du, Ziyang Ma, Jian Wu, Jian Cong, Dongya Jia, Zhuo Chen, Yuping Wang, Yuxuan Wang, Xie Chen•May 31, 2025•22

Neuro2Semantic: Ein Transfer-Learning-Framework zur semantischen Rekonstruktion kontinuierlicher Sprache aus menschlichen intrakraniellen EEG-Daten
Neuro2Semantic: A Transfer Learning Framework for Semantic Reconstruction of Continuous Language from Human Intracranial EEG

Siavash Shams, Richard Antonello, Gavin Mischler, Stephan Bickel, Ashesh Mehta, Nima Mesgarani•May 31, 2025•22

BinauralFlow: Ein kausaler und streamfähiger Ansatz für hochwertige binaurale Sprachsynthese mit Flow-Matching-Modellen
BinauralFlow: A Causal and Streamable Approach for High-Quality Binaural Speech Synthesis with Flow Matching Models

Susan Liang, Dejan Markovic, Israel D. Gebru, Steven Krenn, Todd Keebler, Jacob Sandakly, Frank Yu, Samuel Hassel, Chenliang Xu, Alexander Richard•May 28, 2025•22

R1-Code-Interpreter: Schulung von LLMs zum logischen Denken mit Code durch überwachtes und bestärkendes Lernen
R1-Code-Interpreter: Training LLMs to Reason with Code via Supervised and Reinforcement Learning

Yongchao Chen, Yueying Liu, Junwei Zhou, Yilun Hao, Jingquan Wang, Yang Zhang, Chuchu Fan•May 27, 2025•22

Frankentext: Das Zusammenfügen zufälliger Textfragmente zu langen narrativen Formen
Frankentext: Stitching random text fragments into long-form narratives

Chau Minh Pham, Jenna Russell, Dzung Pham, Mohit Iyyer•May 23, 2025•22

Planung und Budgetierung: Effektive und effiziente Skalierung zur Testzeit bei der Argumentation großer Sprachmodelle
Plan and Budget: Effective and Efficient Test-Time Scaling on Large Language Model Reasoning

Junhong Lin, Xinyue Zeng, Jie Zhu, Song Wang, Julian Shun, Jun Wu, Dawei Zhou•May 22, 2025•22

Pixel versus Priorien: Steuerung von Wissensprioritäten in Vision-Sprache-Modellen durch visuelle Gegenfakten
Pixels Versus Priors: Controlling Knowledge Priors in Vision-Language Models through Visual Counterfacts

Michal Golovanevsky, William Rudman, Michael Lepori, Amir Bar, Ritambhara Singh, Carsten Eickhoff•May 21, 2025•22

MIKU-PAL: Eine automatisierte und standardisierte multimodale Methode zur paralinguistischen und affektiven Beschriftung von Sprache
MIKU-PAL: An Automated and Standardized Multi-Modal Method for Speech Paralinguistic and Affect Labeling

Yifan Cheng, Ruoyi Zhang, Jiatong Shi•May 21, 2025•22

Shuffle PatchMix Augmentation mit Konfidenz-Margin-gewichteten Pseudo-Labels zur verbesserten Quellfreien Domänenanpassung
Shuffle PatchMix Augmentation with Confidence-Margin Weighted Pseudo-Labels for Enhanced Source-Free Domain Adaptation

Prasanna Reddy Pulakurthi, Majid Rabbani, Jamison Heard, Sohail Dianat, Celso M. de Melo, Raghuveer Rao•May 30, 2025•12

Synthese diskret-kontinuierlicher Quantenschaltungen mit multimodalen Diffusionsmodellen
Synthesis of discrete-continuous quantum circuits with multimodal diffusion models

Florian Fürrutter, Zohim Chandani, Ikko Hamamura, Hans J. Briegel, Gorka Muñoz-Gil•Jun 2, 2025•02