ChatPaper.aiChatPaper.ai
Startseite

arXiv

HuggingFace

PreiseKontoArbeitsbereich

•
•

•
•

•
•

•
•

•
•

Footer

Company name

ChatPaper.ai: Your advanced AI reading assistant.

Contact us: [email protected]

X (Twitter)

Products

  • AI Search
  • AI Mind Map
  • Arxiv Summary
  • Huggingface Summary

Support

  • FAQ
  • Contact

Company

  • Blog
  • Privacy Policy
  • Terms of Service

Available Languages

  • 🇬🇧English
  • 🇨🇳中文简体
  • 🇭🇰繁體中文
  • 🇯🇵日本語
  • 🇰🇷한국어
  • 🇩🇪Deutsch
  • 🇫🇷Français
  • 🇷🇺Русский
  • 🇪🇸Español

© 2025 chatpaper.ai All rights reserved.

KI-Forschungspapiere Täglich

Täglich kuratierte KI-Forschungspapiere mit Übersetzungen

Neubewertung von Multi-Agenten-Debatten als Testzeit-Skalierung: Eine systematische Studie zur bedingten Effektivität
Revisiting Multi-Agent Debate as Test-Time Scaling: A Systematic Study of Conditional Effectiveness

Yongjin Yang, Euiin Yi, Jongwoo Ko, Kimin Lee, Zhijing Jin, Se-Young Yun•May 29, 2025•51

PixelThink: Auf dem Weg zu effizienter Chain-of-Pixel-Argumentation
PixelThink: Towards Efficient Chain-of-Pixel Reasoning

Song Wang, Gongfan Fang, Lingdong Kong, Xiangtai Li, Jianyun Xu, Sheng Yang, Qiang Li, Jianke Zhu, Xinchao Wang•May 29, 2025•11

Tabelle-R1: Skalierung zur Inferenzzeit für Tabellenverständnis
Table-R1: Inference-Time Scaling for Table Reasoning

Zheyuan Yang, Lyuhao Chen, Arman Cohan, Yilun Zhao•May 29, 2025•882

Spatial-MLLM: Verbesserung der Fähigkeiten von MLLM in der visuell basierten räumlichen Intelligenz
Spatial-MLLM: Boosting MLLM Capabilities in Visual-based Spatial Intelligence

Diankun Wu, Fangfu Liu, Yi-Hsin Hung, Yueqi Duan•May 29, 2025•663

Der Aufstieg schärft die Weisheit tiefer als der Gipfel: Über die verrauschten Belohnungen beim Erlernen des logischen Denkens
The Climb Carves Wisdom Deeper Than the Summit: On the Noisy Rewards in Learning to Reason

Ang Lv, Ruobing Xie, Xingwu Sun, Zhanhui Kang, Rui Yan•May 28, 2025•642

VF-Eval: Bewertung multimodaler LLMs zur Generierung von Feedback für AIGC-Videos
VF-Eval: Evaluating Multimodal LLMs for Generating Feedback on AIGC Videos

Tingyu Song, Tongyan Hu, Guo Gan, Yilun Zhao•May 29, 2025•562

ZeroGUI: Automatisierung des Online-GUI-Lernens ohne menschlichen Aufwand
ZeroGUI: Automating Online GUI Learning at Zero Human Cost

Chenyu Yang, Shiqian Su, Shi Liu, Xuan Dong, Yue Yu, Weijie Su, Xuehui Wang, Zhaoyang Liu, Jinguo Zhu, Hao Li, Wenhai Wang, Yu Qiao, Xizhou Zhu, Jifeng Dai•May 29, 2025•452

VideoReasonBench: Können MLLMs visuell-zentrierte komplexe Videoanalysen durchführen?
VideoReasonBench: Can MLLMs Perform Vision-Centric Complex Video Reasoning?

Yuanxin Liu, Kun Ouyang, Haoning Wu, Yi Liu, Lin Sui, Xinhao Li, Yan Zhong, Y. Charles, Xinyu Zhou, Xu Sun•May 29, 2025•396

Fast-dLLM: Trainingsfreie Beschleunigung von Diffusion LLM durch Aktivierung von KV-Cache und paralleler Dekodierung
Fast-dLLM: Training-free Acceleration of Diffusion LLM by Enabling KV Cache and Parallel Decoding

Chengyue Wu, Hao Zhang, Shuchen Xue, Zhijian Liu, Shizhe Diao, Ligeng Zhu, Ping Luo, Song Han, Enze Xie•May 28, 2025•392

D-AR: Diffusion durch autoregressive Modelle
D-AR: Diffusion via Autoregressive Models

Ziteng Gao, Mike Zheng Shou•May 29, 2025•342

AnySplat: Feed-forward 3D-Gaußsplatting aus unbegrenzten Blickwinkeln
AnySplat: Feed-forward 3D Gaussian Splatting from Unconstrained Views

Lihan Jiang, Yucheng Mao, Linning Xu, Tao Lu, Kerui Ren, Yichen Jin, Xudong Xu, Mulin Yu, Jiangmiao Pang, Feng Zhao, Dahua Lin, Bo Dai•May 29, 2025•312

cadrille: Multimodale CAD-Rekonstruktion mit Online Reinforcement Learning
cadrille: Multi-modal CAD Reconstruction with Online Reinforcement Learning

Maksim Kolodiazhnyi, Denis Tarasov, Dmitrii Zhemchuzhnikov, Alexander Nikulin, Ilya Zisman, Anna Vorontsova, Anton Konushin, Vladislav Kurenkov, Danila Rukhovich•May 28, 2025•283

Sind Reasoning-Modelle anfälliger für Halluzinationen?
Are Reasoning Models More Prone to Hallucination?

Zijun Yao, Yantao Liu, Yanxu Chen, Jianhui Chen, Junfeng Fang, Lei Hou, Juanzi Li, Tat-Seng Chua•May 29, 2025•242

LoRAShop: Trainingsfreie Multi-Konzept-Bildgenerierung und -bearbeitung mit Rectified Flow Transformern
LoRAShop: Training-Free Multi-Concept Image Generation and Editing with Rectified Flow Transformers

Yusuf Dalva, Hidir Yesiltepe, Pinar Yanardag•May 29, 2025•233

Satori-SWE: Evolutionäre Testzeit-Skalierung für ressourceneffizientes Software-Engineering
Satori-SWE: Evolutionary Test-Time Scaling for Sample-Efficient Software Engineering

Guangtao Zeng, Maohao Shen, Delin Chen, Zhenting Qi, Subhro Das, Dan Gutfreund, David Cox, Gregory Wornell, Wei Lu, Zhang-Wei Hong, Chuang Gan•May 29, 2025•232

UniRL: Selbstverbessernde, einheitliche multimodale Modelle durch überwachtes und verstärkendes Lernen
UniRL: Self-Improving Unified Multimodal Models via Supervised and Reinforcement Learning

Weijia Mao, Zhenheng Yang, Mike Zheng Shou•May 29, 2025•232

ATLAS: Optimale Kontextspeicherung zur Testzeit erlernen
ATLAS: Learning to Optimally Memorize the Context at Test Time

Ali Behrouz, Zeman Li, Praneeth Kacham, Majid Daliri, Yuan Deng, Peilin Zhong, Meisam Razaviyayn, Vahab Mirrokni•May 29, 2025•222

Effizientes Training von Sparse Autoencodern durch Nutzung von Merkmalskorrelationen
Train Sparse Autoencoders Efficiently by Utilizing Features Correlation

Vadim Kurochkin, Yaroslav Aksenov, Daniil Laptev, Daniil Gavrilov, Nikita Balagansky•May 28, 2025•212

Mehrdomänen-Erklärbarkeit von Präferenzen
Multi-Domain Explainability of Preferences

Nitay Calderon, Liat Ein-Dor, Roi Reichart•May 26, 2025•212

SWE-bench geht live!
SWE-bench Goes Live!

Linghao Zhang, Shilin He, Chaoyun Zhang, Yu Kang, Bowen Li, Chengxing Xie, Junhao Wang, Maoquan Wang, Yufan Huang, Shengyu Fu, Elsie Nallipogu, Qingwei Lin, Yingnong Dang, Saravan Rajmohan, Dongmei Zhang•May 29, 2025•202

VidText: Auf dem Weg zu einer umfassenden Bewertung für das Verständnis von Videotexten
VidText: Towards Comprehensive Evaluation for Video Text Understanding

Zhoufaran Yang, Yan Shu, Zhifei Yang, Yan Zhang, Yu Li, Keyang Lu, Gangyan Zeng, Shaohui Liu, Yu Zhou, Nicu Sebe•May 28, 2025•202

FAMA: Das erste groß angelegte Open-Science-Sprachgrundmodell für Englisch und Italienisch
FAMA: The First Large-Scale Open-Science Speech Foundation Model for English and Italian

Sara Papi, Marco Gaido, Luisa Bentivogli, Alessio Brutti, Mauro Cettolo, Roberto Gretter, Marco Matassoni, Mohamed Nabih, Matteo Negri•May 28, 2025•202

StressTest: Kann IHR Sprachmodell dem Stress standhalten?
StressTest: Can YOUR Speech LM Handle the Stress?

Iddo Yosha, Gallil Maimon, Yossi Adi•May 28, 2025•172

Zur Sicherheitsbewertung in LLMs: KI-agentische Deliberation für die Erstellung von politikintegrierten CoT-Daten
Towards Safety Reasoning in LLMs: AI-agentic Deliberation for Policy-embedded CoT Data Creation

Tharindu Kumarage, Ninareh Mehrabi, Anil Ramakrishna, Xinyan Zhao, Richard Zemel, Kai-Wei Chang, Aram Galstyan, Rahul Gupta, Charith Peris•May 27, 2025•172

Das Neuanordnen von Patches verbessert Vision-Modelle
REOrdering Patches Improves Vision Models

Declan Kutscher, David M. Chan, Yutong Bai, Trevor Darrell, Ritwik Gupta•May 29, 2025•162

DeepTheorem: Verbesserung des logischen Denkens von LLMs für den Beweis von Theoremen durch natürliche Sprache und bestärkendes Lernen
DeepTheorem: Advancing LLM Reasoning for Theorem Proving Through Natural Language and Reinforcement Learning

Ziyin Zhang, Jiahao Xu, Zhiwei He, Tian Liang, Qiuzhi Liu, Yansi Li, Linfeng Song, Zhengwen Liang, Zhuosheng Zhang, Rui Wang, Zhaopeng Tu, Haitao Mi, Dong Yu•May 29, 2025•152

Muddit: Befreiung der Generation über Text-zu-Bild hinaus mit einem vereinheitlichten diskreten Diffusionsmodell
Muddit: Liberating Generation Beyond Text-to-Image with a Unified Discrete Diffusion Model

Qingyu Shi, Jinbin Bai, Zhuoran Zhao, Wenhao Chai, Kaidong Yu, Jianzong Wu, Shuangyong Song, Yunhai Tong, Xiangtai Li, Xuelong Li, Shuicheng Yan•May 29, 2025•143

On-Policy RL mit optimaler Belohnungsbaseline
On-Policy RL with Optimal Reward Baseline

Yaru Hao, Li Dong, Xun Wu, Shaohan Huang, Zewen Chi, Furu Wei•May 29, 2025•142

SafeScientist: Hin zu risikobewussten wissenschaftlichen Entdeckungen durch LLM-Agenten
SafeScientist: Toward Risk-Aware Scientific Discoveries by LLM Agents

Kunlun Zhu, Jiaxun Zhang, Ziheng Qi, Nuoxing Shang, Zijia Liu, Peixuan Han, Yue Su, Haofei Yu, Jiaxuan You•May 29, 2025•122

System-1.5-Reasoning: Navigation in Sprach- und latenten Räumen mit dynamischen Abkürzungen
System-1.5 Reasoning: Traversal in Language and Latent Spaces with Dynamic Shortcuts

Xiaoqiang Wang, Suyuchen Wang, Yun Zhu, Bang Liu•May 25, 2025•122

GeoDrive: 3D-Geometrie-basiertes Fahrweltmodell mit präziser Aktionssteuerung
GeoDrive: 3D Geometry-Informed Driving World Model with Precise Action Control

Anthony Chen, Wenzhao Zheng, Yida Wang, Xueyang Zhang, Kun Zhan, Peng Jia, Kurt Keutzer, Shanghang Zhang•May 28, 2025•113

PatientSim: Ein Persona-gesteuerter Simulator für realistische Arzt-Patienten-Interaktionen
PatientSim: A Persona-Driven Simulator for Realistic Doctor-Patient Interactions

Daeun Kyung, Hyunseung Chung, Seongsu Bae, Jiho Kim, Jae Ho Sohn, Taerim Kim, Soo Kyung Kim, Edward Choi•May 23, 2025•112

Unterschiedbare Löser-Suche für schnelle Diffusionsabtastung
Differentiable Solver Search for Fast Diffusion Sampling

Shuai Wang, Zexian Li, Qipeng zhang, Tianhui Song, Xubin Li, Tiezheng Ge, Bo Zheng, Limin Wang•May 27, 2025•102

Analyse von Video-LLM-Benchmarks: Wissen, räumliche Wahrnehmung oder echtes zeitliches Verständnis?
Breaking Down Video LLM Benchmarks: Knowledge, Spatial Perception, or True Temporal Understanding?

Bo Feng, Zhengfeng Lai, Shiyu Li, Zizhen Wang, Simon Wang, Ping Huang, Meng Cao•May 20, 2025•102

MAGREF: Maskierte Steuerung für die Videoerzeugung mit beliebigem Referenzmaterial
MAGREF: Masked Guidance for Any-Reference Video Generation

Yufan Deng, Xun Guo, Yuanyang Yin, Jacob Zhiyuan Fang, Yiding Yang, Yizhi Wang, Shenghai Yuan, Angtian Wang, Bo Liu, Haibin Huang, Chongyang Ma•May 29, 2025•92

KVzip: Abfrage-agnostische KV-Cache-Kompression mit Kontextrekonstruktion
KVzip: Query-Agnostic KV Cache Compression with Context Reconstruction

Jang-Hyun Kim, Jinuk Kim, Sangwoo Kwon, Jae W. Lee, Sangdoo Yun, Hyun Oh Song•May 29, 2025•92

ToMAP: Training von gegnerbewussten LLM-Überzeugern mit Theory of Mind
ToMAP: Training Opponent-Aware LLM Persuaders with Theory of Mind

Peixuan Han, Zijia Liu, Jiaxuan You•May 29, 2025•82

Uni-Instruct: Ein Ein-Schritt-Diffusionsmodell durch vereinheitlichte Divergenzanweisung für Diffusion
Uni-Instruct: One-step Diffusion Model through Unified Diffusion Divergence Instruction

Yifei Wang, Weimin Bai, Colin Zhang, Debing Zhang, Weijian Luo, He Sun•May 27, 2025•82

ZeroSep: Trennen von allem in Audio ohne Training
ZeroSep: Separate Anything in Audio with Zero Training

Chao Huang, Yuesheng Ma, Junxuan Huang, Susan Liang, Yunlong Tang, Jing Bi, Wenqiang Liu, Nima Mesgarani, Chenliang Xu•May 29, 2025•72

Afterburner: Reinforcement Learning ermöglicht selbstverbessernde Code-Effizienzoptimierung
Afterburner: Reinforcement Learning Facilitates Self-Improving Code Efficiency Optimization

Mingzhe Du, Luu Tuan Tuan, Yue Liu, Yuhao Qing, Dong Huang, Xinyi He, Qian Liu, Zejun Ma, See-kiong Ng•May 29, 2025•72

ATI: Beliebige Trajektorienanweisung für kontrollierbare Videogenerierung
ATI: Any Trajectory Instruction for Controllable Video Generation

Angtian Wang, Haibin Huang, Jacob Zhiyuan Fang, Yiding Yang, Chongyang Ma•May 28, 2025•72

Re-ttention: Ultra-sparse visuelle Generierung durch statistische Neugestaltung von Aufmerksamkeit
Re-ttention: Ultra Sparse Visual Generation via Attention Statistical Reshape

Ruichen Chen, Keith G. Mills, Liyao Jiang, Chao Gao, Di Niu•May 28, 2025•72

Einmalige Entropie-Minimierung
One-shot Entropy Minimization

Zitian Gao, Lynx Chen, Joey Zhou, Bryan Dai•May 26, 2025•72

Wenn Modelle in Ihrer Sprache schlussfolgern: Die Kontrolle der Denkspurensprache geht auf Kosten der Genauigkeit
When Models Reason in Your Language: Controlling Thinking Trace Language Comes at the Cost of Accuracy

Jirui Qi, Shan Chen, Zidi Xiong, Raquel Fernández, Danielle S. Bitterman, Arianna Bisazza•May 28, 2025•62

CXReasonBench: Ein Benchmark zur Bewertung strukturierter diagnostischer Schlussfolgerungen bei Röntgenaufnahmen des Brustkorbs
CXReasonBench: A Benchmark for Evaluating Structured Diagnostic Reasoning in Chest X-rays

Hyungyung Lee, Geon Choi, Jung-Oh Lee, Hangyul Yoon, Hyuk Gi Hong, Edward Choi•May 23, 2025•62

Verwirrt von Rätseln: Wenn Vision-Sprache-Modelle keine Hinweise verstehen
Puzzled by Puzzles: When Vision-Language Models Can't Take a Hint

Heekyung Lee, Jiaxin Ge, Tsung-Han Wu, Minwoo Kang, Trevor Darrell, David M. Chan•May 29, 2025•52

Zu vertrauen oder nicht zu vertrauen: Die Vorhersage Ihres Vision-Sprache-Modells
To Trust Or Not To Trust Your Vision-Language Model's Prediction

Hao Dong, Moru Liu, Jian Liang, Eleni Chatzi, Olga Fink•May 29, 2025•52

UniTEX: Universelle hochfidel generative Texturierung für 3D-Formen
UniTEX: Universal High Fidelity Generative Texturing for 3D Shapes

Yixun Liang, Kunming Luo, Xiao Chen, Rui Chen, Hongyu Yan, Weiyu Li, Jiarui Liu, Ping Tan•May 29, 2025•52

CLIPGaussian: Universeller und multimodaler Stiltransfer basierend auf Gaussian Splatting
CLIPGaussian: Universal and Multimodal Style Transfer Based on Gaussian Splatting

Kornel Howil, Joanna Waczyńska, Piotr Borycki, Tadeusz Dziarmaga, Marcin Mazur, Przemysław Spurek•May 28, 2025•52

Präzises Denken, große Gewinne: Kürzen langer Denkpfade mit schwierigkeitsbewusster Promptgestaltung
Concise Reasoning, Big Gains: Pruning Long Reasoning Trace with Difficulty-Aware Prompting

Yifan Wu, Jingze Shi, Bingheng Wu, Jiayi Zhang, Xiaotian Lin, Nan Tang, Yuyu Luo•May 26, 2025•52

Wie Tiere tanzen (wenn niemand hinsieht)
How Animals Dance (When You're Not Looking)

Xiaojuan Wang, Aleksander Holynski, Brian Curless, Ira Kemelmacher, Steve Seitz•May 29, 2025•42

ZPressor: Engpassbewusste Kompression für skalierbare Feed-Forward-3DGS
ZPressor: Bottleneck-Aware Compression for Scalable Feed-Forward 3DGS

Weijie Wang, Donny Y. Chen, Zeyu Zhang, Duochao Shi, Akide Liu, Bohan Zhuang•May 29, 2025•45

Können LLMs CLIP täuschen? Benchmarking der adversen Kompositionalität vortrainierter multimodaler Repräsentationen durch Textaktualisierungen
Can LLMs Deceive CLIP? Benchmarking Adversarial Compositionality of Pre-trained Multimodal Representation via Text Updates

Jaewoo Ahn, Heeseung Yun, Dayoon Ko, Gunhee Kim•May 28, 2025•44

SridBench: Benchmark für die Erstellung wissenschaftlicher Forschungsillustrationen durch Bildgenerierungsmodelle
SridBench: Benchmark of Scientific Research Illustration Drawing of Image Generation Model

Yifan Chang, Yukang Feng, Jianwen Sun, Jiaxin Ai, Chuanhao Li, S. Kevin Zhou, Kaipeng Zhang•May 28, 2025•42

Lunguage: Ein Benchmark für strukturierte und sequenzielle Interpretation von Röntgenaufnahmen des Brustkorbs
Lunguage: A Benchmark for Structured and Sequential Chest X-ray Interpretation

Jong Hak Moon, Geon Choi, Paloma Rabaey, Min Gwan Kim, Hyuk Gi Hong, Jung-Oh Lee, Hangyul Yoon, Eun Woo Doe, Jiyoun Kim, Harshita Sharma, Daniel C. Castro, Javier Alvarez-Valle, Edward Choi•May 27, 2025•42

ChartLens: Fein granulare visuelle Attribuierung in Diagrammen
ChartLens: Fine-grained Visual Attribution in Charts

Manan Suri, Puneet Mathur, Nedim Lipka, Franck Dernoncourt, Ryan A. Rossi, Dinesh Manocha•May 25, 2025•42

Eine Graph-Perspektive zur Untersuchung struktureller Wissensmuster in großen Sprachmodellen
A Graph Perspective to Probe Structural Patterns of Knowledge in Large Language Models

Utkarsh Sahu, Zhisheng Qi, Yongjia Lei, Ryan A. Rossi, Franck Dernoncourt, Nesreen K. Ahmed, Mahantesh M Halappanavar, Yao Ma, Yu Wang•May 25, 2025•42

MMSI-Bench: Ein Benchmark für räumliche Intelligenz mit mehreren Bildern
MMSI-Bench: A Benchmark for Multi-Image Spatial Intelligence

Sihan Yang, Runsen Xu, Yiman Xie, Sizhe Yang, Mo Li, Jingli Lin, Chenming Zhu, Xiaochen Chen, Haodong Duan, Xiangyu Yue, Dahua Lin, Tai Wang, Jiangmiao Pang•May 29, 2025•32

Differenzielle Information: Eine informationstheoretische Perspektive auf die Präferenzoptimierung
Differential Information: An Information-Theoretic Perspective on Preference Optimization

Yunjae Won, Hyunji Lee, Hyeonbin Hwang, Minjoon Seo•May 29, 2025•32

Gebundenes Verstärkungslernen für visuelles Schließen
Grounded Reinforcement Learning for Visual Reasoning

Gabriel Sarch, Snigdha Saha, Naitik Khandelwal, Ayush Jain, Michael J. Tarr, Aviral Kumar, Katerina Fragkiadaki•May 29, 2025•32

GSO: Anspruchsvolle Software-Optimierungsaufgaben zur Bewertung von SWE-Agenten
GSO: Challenging Software Optimization Tasks for Evaluating SWE-Agents

Manish Shetty, Naman Jain, Jinjian Liu, Vijay Kethanaboyina, Koushik Sen, Ion Stoica•May 29, 2025•32

Bewertung von Textkreativität über diverse Domänen hinweg: Ein Datensatz und ein Large Language Model als Evaluator
Evaluating Text Creativity across Diverse Domains: A Dataset and Large Language Model Evaluator

Qian Cao, Xiting Wang, Yuzhuo Yuan, Yahui Liu, Fang Luo, Ruihua Song•May 25, 2025•32

TokBench: Bewertung Ihres visuellen Tokenizers vor der visuellen Generierung
TokBench: Evaluating Your Visual Tokenizer before Visual Generation

Junfeng Wu, Dongliang Luo, Weizhi Zhao, Zhihao Xie, Yuanhao Wang, Junyi Li, Xudong Xie, Yuliang Liu, Xiang Bai•May 23, 2025•32

Unüberwachte Wortebenen-Qualitätsschätzung für maschinelle Übersetzung durch die Linse der (Un-)Übereinstimmung von Annotatoren
Unsupervised Word-level Quality Estimation for Machine Translation Through the Lens of Annotators (Dis)agreement

Gabriele Sarti, Vilém Zouhar, Malvina Nissim, Arianna Bisazza•May 29, 2025•22

Modell-erhaltende adaptive Rundung
Model-Preserving Adaptive Rounding

Albert Tseng, Zhaofeng Sun, Christopher De Sa•May 29, 2025•22

Adaptive Classifier-Freie Führung durch dynamische Maskierung bei geringem Vertrauen
Adaptive Classifier-Free Guidance via Dynamic Low-Confidence Masking

Pengxiang Li, Shilin Yan, Joey Tsai, Renrui Zhang, Ruichuan An, Ziyu Guo, Xiaowei Gao•May 26, 2025•22

Große Sprachmodelle treffen auf Wissensgraphen für die Beantwortung von Fragen: Synthese und Chancen
Large Language Models Meet Knowledge Graphs for Question Answering: Synthesis and Opportunities

Chuangtao Ma, Yongrui Chen, Tianxing Wu, Arijit Khan, Haofen Wang•May 26, 2025•22

Auf dem Weg zu zuverlässiger biomedizinischer Hypothesengenerierung: Bewertung von Wahrhaftigkeit und Halluzination in großen Sprachmodellen
Toward Reliable Biomedical Hypothesis Generation: Evaluating Truthfulness and Hallucination in Large Language Models

Guangzhi Xiong, Eric Xie, Corey Williams, Myles Kim, Amir Hassan Shariatmadari, Sikun Guo, Stefan Bekiranov, Aidong Zhang•May 20, 2025•12