ChatPaper.aiChatPaper.ai
홈

arXiv

HuggingFace

요금제계정작업공간

•
•

•
•

•
•

•
•

•
•

Footer

Company name

ChatPaper.ai: Your advanced AI reading assistant.

Contact us: [email protected]

X (Twitter)

Products

  • AI Search
  • AI Mind Map
  • Arxiv Summary
  • Huggingface Summary

Support

  • FAQ
  • Contact

Company

  • Blog
  • Privacy Policy
  • Terms of Service

Available Languages

  • 🇬🇧English
  • 🇨🇳中文简体
  • 🇭🇰繁體中文
  • 🇯🇵日本語
  • 🇰🇷한국어
  • 🇩🇪Deutsch
  • 🇫🇷Français
  • 🇷🇺Русский
  • 🇪🇸Español

© 2025 chatpaper.ai All rights reserved.

AI 연구 논문 데일리

번역이 포함된 일일 선별된 AI 연구 논문

ProRL: 장기 강화 학습이 대규모 언어 모델의 추론 한계를 확장하다
ProRL: Prolonged Reinforcement Learning Expands Reasoning Boundaries in Large Language Models

Mingjie Liu, Shizhe Diao, Ximing Lu, Jian Hu, Xin Dong, Yejin Choi, Jan Kautz, Yi Dong•May 30, 2025•1123

AlphaOne: 테스트 시간에 느리고 빠르게 사고하는 추론 모델
AlphaOne: Reasoning Models Thinking Slow and Fast at Test Time

Junyu Zhang, Runpei Dong, Han Wang, Xuying Ning, Haoran Geng, Peihao Li, Xialin He, Yutong Bai, Jitendra Malik, Saurabh Gupta, Huan Zhang•May 30, 2025•862

시간적 맹목: 비디오-언어 모델은 왜 인간이 보는 것을 볼 수 없는가?
Time Blindness: Why Video-Language Models Can't See What Humans Can?

Ujjwal Upadhyay, Mukul Ranjan, Zhiqiang Shen, Mohamed Elhoseiny•May 30, 2025•723

데이터 합성을 위한 대형 언어 모델
Large Language Models for Data Synthesis

Yihong Tang, Menglin Kong, Lijun Sun•May 20, 2025•472

HardTests: LLM 코딩을 위한 고품질 테스트 케이스 합성
HardTests: Synthesizing High-Quality Test Cases for LLM Coding

Zhongmou He, Yee Man Choi, Kexun Zhang, Jiabao Ji, Junting Zhou, Dejia Xu, Ivan Bercovich, Aidan Zhang, Lei Li•May 30, 2025•412

한 번만 보지 마라: 선택적 시각 재방문을 통한 다중모드 상호작용적 추론을 향하여
Don't Look Only Once: Towards Multimodal Interactive Reasoning with Selective Visual Revisitation

Jiwan Chung, Junhyeok Kim, Siyeol Kim, Jaeyoung Lee, Min Soo Kim, Youngjae Yu•May 24, 2025•352

ViStoryBench: 스토리 시각화를 위한 종합 벤치마크 제품군
ViStoryBench: Comprehensive Benchmark Suite for Story Visualization

Cailin Zhuang, Ailin Huang, Wei Cheng, Jingwei Wu, Yaoqi Hu, Jiaqi Liao, Zhewei Huang, Hongyuan Wang, Xinyao Liao, Weiwei Cai, Hengyuan Xu, Xuanyang Zhang, Xianfang Zeng, Gang Yu, Chi Zhang•May 30, 2025•302

DINO-R1: 시각 기반 모델의 추론 능력 강화를 위한 인센티브 제공
DINO-R1: Incentivizing Reasoning Capability in Vision Foundation Models

Chenbin Pan, Wenbin He, Zhengzhong Tu, Liu Ren•May 29, 2025•233

EXP-Bench: AI가 AI 연구 실험을 수행할 수 있는가?
EXP-Bench: Can AI Conduct AI Research Experiments?

Patrick Tser Jern Kon, Jiachen Liu, Xinyi Zhu, Qiuyi Ding, Jingjia Peng, Jiarong Xing, Yibo Huang, Yiming Qiu, Jayanth Srinivasa, Myungjin Lee, Mosharaf Chowdhury, Matei Zaharia, Ang Chen•May 30, 2025•223

Open CaptchaWorld: 멀티모달 LLM 에이전트 테스트 및 벤치마킹을 위한 포괄적인 웹 기반 플랫폼
Open CaptchaWorld: A Comprehensive Web-based Platform for Testing and Benchmarking Multimodal LLM Agents

Yaxin Luo, Zhaoyi Li, Jiacheng Liu, Jiacheng Cui, Xiaohan Zhao, Zhiqiang Shen•May 30, 2025•212

CoDA: 관절형 물체의 전신 조작을 위한 조정된 확산 노이즈 최적화
CoDA: Coordinated Diffusion Noise Optimization for Whole-Body Manipulation of Articulated Objects

Huaijin Pi, Zhi Cen, Zhiyang Dou, Taku Komura•May 27, 2025•202

MoDoMoDo: 다중 도메인 데이터 혼합을 통한 멀티모달 LLM 강화 학습
MoDoMoDo: Multi-Domain Data Mixtures for Multimodal LLM Reinforcement Learning

Yiqing Liang, Jielin Qiu, Wenhao Ding, Zuxin Liu, James Tompkin, Mengdi Xu, Mengzhou Xia, Zhengzhong Tu, Laixi Shi, Jiacheng Zhu•May 30, 2025•183

비전 언어 모델은 편향성을 지니고 있다
Vision Language Models are Biased

An Vo, Khai-Nguyen Nguyen, Mohammad Reza Taesiri, Vy Tuong Dang, Anh Totti Nguyen, Daeyoung Kim•May 29, 2025•172

EmergentTTS-Eval: 모델-어스-저지를 활용한 복잡한 운율, 표현성 및 언어적 도전 과제에 대한 TTS 모델 평가
EmergentTTS-Eval: Evaluating TTS Models on Complex Prosodic, Expressiveness, and Linguistic Challenges Using Model-as-a-Judge

Ruskin Raj Manku, Yuzhi Tang, Xingjian Shi, Mu Li, Alex Smola•May 29, 2025•172

MetaFaith: 대규모 언어 모델에서의 자연스러운 불확실성 표현의 신뢰성
MetaFaith: Faithful Natural Language Uncertainty Expression in LLMs

Gabrielle Kaili-May Liu, Gal Yona, Avi Caciularu, Idan Szpektor, Tim G. J. Rudner, Arman Cohan•May 30, 2025•162

UniGeo: 비디오 확산 모델을 제어하여 통합적 일관성 있는 기하학 추정 달성하기
UniGeo: Taming Video Diffusion for Unified Consistent Geometry Estimation

Yang-Tian Sun, Xin Yu, Zehuan Huang, Yi-Hua Huang, Yuan-Chen Guo, Ziyi Yang, Yan-Pei Cao, Xiaojuan Qi•May 30, 2025•152

더 많은 사고, 더 적은 관찰? 다중모달 추론 모델에서의 증폭된 환각 현상 평가
More Thinking, Less Seeing? Assessing Amplified Hallucination in Multimodal Reasoning Models

Chengzhi Liu, Zhongxing Xu, Qingyue Wei, Juncheng Wu, James Zou, Xin Eric Wang, Yuyin Zhou, Sheng Liu•May 23, 2025•142

CLaSp: 자기 추론 디코딩을 위한 컨텍스트 내 계층 건너뛰기
CLaSp: In-Context Layer Skip for Self-Speculative Decoding

Longze Chen, Renke Shan, Huiming Wang, Lu Wang, Ziqiang Liu, Run Luo, Jiawei Wang, Hamid Alinejad-Rokny, Min Yang•May 30, 2025•136

EasyText: 다국어 텍스트 렌더링을 위한 제어 가능한 확산 트랜스포머
EasyText: Controllable Diffusion Transformer for Multilingual Text Rendering

Runnan Lu, Yuxuan Zhang, Jailing Liu, Haifa Wang, Yiren Song•May 30, 2025•122

대형 언어 모델은 지역적으로 선형 매핑을 수행한다.
Large Language Models are Locally Linear Mappings

James R. Golden•May 30, 2025•114

ReasonGen-R1: 자기회귀적 이미지 생성 모델을 위한 CoT - SFT와 RL을 통한 접근
ReasonGen-R1: CoT for Autoregressive Image generation models through SFT and RL

Yu Zhang, Yunqi Li, Yifan Yang, Rui Wang, Yuqing Yang, Dai Qi, Jianmin Bao, Dongdong Chen, Chong Luo, Lili Qiu•May 30, 2025•102

포크-머지 디코딩: 오디오-비주얼 대규모 언어 모델의 멀티모달 이해력 향상
Fork-Merge Decoding: Enhancing Multimodal Understanding in Audio-Visual Large Language Models

Chaeyoung Jung, Youngjoon Jang, Jongmin Choi, Joon Son Chung•May 27, 2025•102

부정 신호 활용: LLM 추론을 위한 교사 데이터의 강화 증류
Harnessing Negative Signals: Reinforcement Distillation from Teacher Data for LLM Reasoning

Shuyao Xu, Cheng Peng, Jiangxuan Long, Weidi Xu, Wei Chu, Yuan Qi•May 30, 2025•93

DexUMI: 인간의 손을 보편적 조작 인터페이스로 활용한 정교한 조작
DexUMI: Using Human Hand as the Universal Manipulation Interface for Dexterous Manipulation

Mengda Xu, Han Zhang, Yifan Hou, Zhenjia Xu, Linxi Fan, Manuela Veloso, Shuran Song•May 28, 2025•92

ChARM: 고급 롤플레잉 언어 에이전트를 위한 문자 기반 행위 적응형 보상 모델링
ChARM: Character-based Act-adaptive Reward Modeling for Advanced Role-Playing Language Agents

Feiteng Fang, Ting-En Lin, Yuchuan Wu, Xiong Liu, Xiang Huang, Dingwei Chen, Jing Ye, Haonan Zhang, Liang Zhu, Hamid Alinejad-Rokny, Min Yang, Fei Huang, Yongbin Li•May 29, 2025•72

대규모 언어 모델을 위한 역할극 기반 평가
Role-Playing Evaluation for Large Language Models

Yassine El Boudouri, Walter Nuninger, Julian Alvarez, Yvan Peter•May 19, 2025•72

다중모드 대형 언어 모델에서의 모달리티 선호도 평가 및 조정
Evaluating and Steering Modality Preferences in Multimodal Large Language Model

Yu Zhang, Jinlong Ma, Yongshuai Hou, Xuefeng Bai, Kehai Chen, Yang Xiang, Jun Yu, Min Zhang•May 27, 2025•62

SiLVR: 단순 언어 기반 비디오 추론 프레임워크
SiLVR: A Simple Language-based Video Reasoning Framework

Ce Zhang, Yan-Bo Lin, Ziyang Wang, Mohit Bansal, Gedas Bertasius•May 30, 2025•52

과학적 신규성 탐지를 위한 대규모 언어 모델 활용
Harnessing Large Language Models for Scientific Novelty Detection

Yan Liu, Zonglin Yang, Soujanya Poria, Thanh-Son Nguyen, Erik Cambria•May 30, 2025•52

un^2CLIP: unCLIP 역변환을 통해 CLIP의 시각적 세부 정보 포착 능력 향상
un^2CLIP: Improving CLIP's Visual Detail Capturing Ability via Inverting unCLIP

Yinqi Li, Jiahe Zhao, Hong Chang, Ruibing Hou, Shiguang Shan, Xilin Chen•May 30, 2025•52

SLM을 미세 조정할 것인가, LLM에 프롬프트를 제공할 것인가? 로우 코드 워크플로 생성 사례
Fine-Tune an SLM or Prompt an LLM? The Case of Generating Low-Code Workflows

Orlando Marquez Ayala, Patrice Bechard, Emily Chen, Maggie Baird, Jingfei Chen•May 30, 2025•52

Point-MoE: 전문가 혼합을 통한 3D 의미론적 분할의 도메인 간 일반화를 향하여
Point-MoE: Towards Cross-Domain Generalization in 3D Semantic Segmentation via Mixture-of-Experts

Xuweiyi Chen, Wentao Zhou, Aruni RoyChowdhury, Zezhou Cheng•May 29, 2025•52

확장 가능한 지식 통합을 위한 유연한 다중 LLM 통합 지원
Enabling Flexible Multi-LLM Integration for Scalable Knowledge Aggregation

Zhenglun Kong, Zheng Zhan, Shiyue Hou, Yifan Gong, Xin Meng, Pengwei Sui, Peiyan Dong, Xuan Shen, Zifeng Wang, Pu Zhao, Hao Tang, Stratis Ioannidis, Yanzhi Wang•May 28, 2025•52

순환 신경망에서의 이중 선형 상태 전이 재고찰
Revisiting Bi-Linear State Transitions in Recurrent Neural Networks

M. Reza Ebrahimi, Roland Memisevic•May 27, 2025•42

TRIDENT: 삼차원 다양화된 레드팀 데이터 합성을 통한 대형 언어 모델 안전성 강화
TRIDENT: Enhancing Large Language Model Safety with Tri-Dimensional Diversified Red-Teaming Data Synthesis

Xiaorui Wu, Xiaofeng Mao, Fei Li, Xin Zhang, Xuanhong Li, Chong Teng, Donghong Ji, Zhuang Li•May 30, 2025•32

GATE: 향상된 의미적 텍스트 유사성을 위한 일반 아랍어 텍스트 임베딩 - 마트료시카 표현 학습과 하이브리드 손실 훈련 기법 적용
GATE: General Arabic Text Embedding for Enhanced Semantic Textual Similarity with Matryoshka Representation Learning and Hybrid Loss Training

Omer Nacar, Anis Koubaa, Serry Sibaee, Yasser Al-Habashi, Adel Ammar, Wadii Boulila•May 30, 2025•32

형식적 불확실성의 문법: 자동화된 추론 작업에서 LLM을 신뢰할 시점
Grammars of Formal Uncertainty: When to Trust LLMs in Automated Reasoning Tasks

Debargha Ganguly, Vikash Singh, Sreehari Sankar, Biyao Zhang, Xuecen Zhang, Srinivasan Iyengar, Xiaotian Han, Amit Sharma, Shivkumar Kalyanaraman, Vipin Chaudhary•May 26, 2025•32

자동화되었지만 위험한 게임: 소비자 시장에서 에이전트 간 협상 및 거래 모델링
The Automated but Risky Game: Modeling Agent-to-Agent Negotiations and Transactions in Consumer Markets

Shenzhe Zhu, Jiao Sun, Yi Nian, Tobin South, Alex Pentland, Jiaxin Pei•May 29, 2025•23

OMNIGUARD: 다중 모달리티에 걸친 AI 안전 조정을 위한 효율적 접근법
OMNIGUARD: An Efficient Approach for AI Safety Moderation Across Modalities

Sahil Verma, Keegan Hines, Jeff Bilmes, Charlotte Siska, Luke Zettlemoyer, Hila Gonen, Chandan Singh•May 29, 2025•22

LegalSearchLM: 법적 사례 검색을 법적 요소 생성으로 재고하기
LegalSearchLM: Rethinking Legal Case Retrieval as Legal Elements Generation

Chaeeun Kim, Jinu Lee, Wonseok Hwang•May 28, 2025•21

문맥은 핵심 구문을 찾는 데 있어 금과 같다: 문맥 기반 문서 임베딩의 평가와 훈련
Context is Gold to find the Gold Passage: Evaluating and Training Contextual Document Embeddings

Max Conti, Manuel Faysse, Gautier Viaud, Antoine Bosselut, Céline Hudelot, Pierre Colombo•May 30, 2025•12

다국어 LLM 안전성 연구 현황: 언어 격차 측정에서 완화까지
The State of Multilingual LLM Safety Research: From Measuring the Language Gap to Mitigating It

Zheng-Xin Yong, Beyza Ermis, Marzieh Fadaee, Stephen H. Bach, Julia Kreutzer•May 30, 2025•12