ChatPaper.ai
메뉴 열기
홈
오늘의 논문
arXiv
HuggingFace
요금제
계정
작업공간
🇰🇷
한국어
Loading...
•
•
•
•
•
•
•
•
•
•
AI 연구 논문 데일리
번역이 포함된 일일 선별된 AI 연구 논문
May 26th, 2025
TabSTAR: 의미론적으로 타겟 인식 표현을 갖춘 기초 테이블 형식 모델
TabSTAR: A Foundation Tabular Model With Semantically Target-Aware Representations
Alan Arazi, Eilam Shapira, Roi Reichart
•
May 23, 2025
•
103
4
QwenLong-L1: 강화 학습을 통한 장문맥 대규모 추론 모델 구축
QwenLong-L1: Towards Long-Context Large Reasoning Models with Reinforcement Learning
Fanqi Wan, Weizhou Shen, Shengyi Liao, Yingcheng Shi, Chenliang Li, Ziyi Yang, Ji Zhang, Fei Huang, Jingren Zhou, Ming Yan
•
May 23, 2025
•
75
3
검색 및 코드 도구를 활용한 대형 언어 모델 에이전트의 소형 모델로의 지식 증류
Distilling LLM Agent into Small Models with Retrieval and Code Tools
Minki Kang, Jongwon Jeong, Seanie Lee, Jaewoong Cho, Sung Ju Hwang
•
May 23, 2025
•
71
5
Quartet: 네이티브 FP4 훈련이 대규모 언어 모델에 최적일 수 있다
Quartet: Native FP4 Training Can Be Optimal for Large Language Models
Roberto L. Castro, Andrei Panferov, Soroush Tabesh, Oliver Sieberling, Jiale Chen, Mahdi Nikdan, Saleh Ashkboos, Dan Alistarh
•
May 20, 2025
•
70
2
추론 모델은 고집스럽다: 추론 모델에서의 명령어 재정의 현상 진단
Reasoning Model is Stubborn: Diagnosing Instruction Overriding in Reasoning Models
Doohyuk Jang, Yoonjeon Kim, Chanjae Park, Hyun Ryu, Eunho Yang
•
May 22, 2025
•
59
2
하나의 강화 학습으로 모두 보기: 시각적 트리플 통합 강화 학습
One RL to See Them All: Visual Triple Unified Reinforcement Learning
Yan Ma, Linge Du, Xuyang Shen, Shaoxiang Chen, Pengfei Li, Qibing Ren, Lizhuang Ma, Yuchao Dai, Pengfei Liu, Junjie Yan
•
May 23, 2025
•
55
2
PhyX: 당신의 모델은 물리적 추론을 위한 "지능"을 갖추고 있는가?
PhyX: Does Your Model Have the "Wits" for Physical Reasoning?
Hui Shen, Taiqiang Wu, Qi Han, Yunta Hsieh, Jizhou Wang, Yuyue Zhang, Yuxin Cheng, Zijian Hao, Yuansheng Ni, Xin Wang, Zhongwei Wan, Kai Zhang, Wendong Xu, Jing Xiong, Ping Luo, Wenhu Chen, Chaofan Tao, Zhuoqing Mao, Ngai Wong
•
May 21, 2025
•
47
4
QwenLong-CPRS: 동적 컨텍스트 최적화를 통한 무한-LLM을 향하여
QwenLong-CPRS: Towards infty-LLMs with Dynamic Context Optimization
Weizhou Shen, Chenliang Li, Fanqi Wan, Shengyi Liao, Shaopeng Lai, Bo Zhang, Yingcheng Shi, Yuning Wu, Gang Fu, Zhansheng Li, Bin Yang, Ji Zhang, Fei Huang, Jingren Zhou, Ming Yan
•
May 23, 2025
•
39
3
테스트 타임 진화 탐색을 통한 이미지 및 비디오 생성의 확장
Scaling Image and Video Generation via Test-Time Evolutionary Search
Haoran He, Jiajun Liang, Xintao Wang, Pengfei Wan, Di Zhang, Kun Gai, Ling Pan
•
May 23, 2025
•
38
2
MOOSE-Chem3: 시뮬레이션된 실험 피드백을 통한 실험 기반 가설 순위 결정 방향
MOOSE-Chem3: Toward Experiment-Guided Hypothesis Ranking via Simulated Experimental Feedback
Wanhao Liu, Zonglin Yang, Jue Wang, Lidong Bing, Di Zhang, Dongzhan Zhou, Yuqiang Li, Houqiang Li, Erik Cambria, Wanli Ouyang
•
May 23, 2025
•
29
3
모델은 이미 최적의 노이즈를 알고 있다: 비디오 확산 모델의 어텐션을 통한 베이지안 능동적 노이즈 선택
Model Already Knows the Best Noise: Bayesian Active Noise Selection via Attention in Video Diffusion Model
Kwanyoung Kim, Sanghyun Kim
•
May 23, 2025
•
29
3
VeriThinker: 검증 학습을 통한 추론 모델 효율화
VeriThinker: Learning to Verify Makes Reasoning Model Efficient
Zigeng Chen, Xinyin Ma, Gongfan Fang, Ruonan Yu, Xinchao Wang
•
May 23, 2025
•
23
2
확산 분류기는 구성성을 이해하지만, 조건이 적용됩니다.
Diffusion Classifiers Understand Compositionality, but Conditions Apply
Yujin Jeong, Arnas Uselis, Seong Joon Oh, Anna Rohrbach
•
May 23, 2025
•
18
3
AudioTrust: 오디오 대형 언어 모델의 다면적 신뢰성 벤치마킹
AudioTrust: Benchmarking the Multifaceted Trustworthiness of Audio Large Language Models
Kai Li, Can Shen, Yile Liu, Jirui Han, Kelong Zheng, Xuechao Zou, Zhe Wang, Xingjian Du, Shun Zhang, Hanjun Luo, Yingbin Jin, Xinxin Xing, Ziyang Ma, Yue Liu, Xiaojun Jia, Yifan Zhang, Junfeng Fang, Kun Wang, Yibo Yan, Haoyang Li, Yiming Li, Xiaobin Zhuang, Yang Liu, Haibo Hu, Zhuo Chen, Zhizheng Wu, Xiaolin Hu, Eng-Siong Chng, XiaoFeng Wang, Wenyuan Xu, Wei Dong, Xinfeng Li
•
May 22, 2025
•
17
2
Direct3D-S2: 공간적 희소 주의 메커니즘을 통해 간편하게 구현하는 기가스케일 3D 생성
Direct3D-S2: Gigascale 3D Generation Made Easy with Spatial Sparse Attention
Shuang Wu, Youtian Lin, Feihu Zhang, Yifei Zeng, Yikang Yang, Yajie Bao, Jiachen Qian, Siyu Zhu, Philip Torr, Xun Cao, Yao Yao
•
May 23, 2025
•
16
2
불확실성의 위치: 대규모 언어 모델에서의 위치 편향에 대한 교차 언어 연구
Position of Uncertainty: A Cross-Linguistic Study of Positional Bias in Large Language Models
Menschikov Mikhail, Alexander Kharitonov, Maiia Kotyga, Vadim Porvatov, Anna Zhukovskaya, David Kagramanyan, Egor Shvetsov, Evgeny Burnaev
•
May 22, 2025
•
16
2
s3: 검색 에이전트를 RL로 훈련시키기 위해 그렇게 많은 데이터가 필요하지 않습니다
s3: You Don't Need That Much Data to Train a Search Agent via RL
Pengcheng Jiang, Xueqiang Xu, Jiacheng Lin, Jinfeng Xiao, Zifeng Wang, Jimeng Sun, Jiawei Han
•
May 20, 2025
•
15
2
FullFront: 전체 프론트엔드 엔지니어링 워크플로우에서의 MLLM 벤치마킹
FullFront: Benchmarking MLLMs Across the Full Front-End Engineering Workflow
Haoyu Sun, Huichen Will Wang, Jiawei Gu, Linjie Li, Yu Cheng
•
May 23, 2025
•
14
2
사고 강화 정책 최적화: 외부 지도와 내부 역량의 연결
Thought-Augmented Policy Optimization: Bridging External Guidance and Internal Capabilities
Jinyang Wu, Chonghua Liao, Mingkuan Feng, Shuai Zhang, Zhengqi Wen, Pengpeng Shao, Huazhe Xu, Jianhua Tao
•
May 21, 2025
•
14
2
Time-R1: 대규모 언어 모델을 위한 포괄적 시간 추론 연구
Time-R1: Towards Comprehensive Temporal Reasoning in LLMs
Zijia Liu, Peixuan Han, Haofei Yu, Haoru Li, Jiaxuan You
•
May 16, 2025
•
14
3
거짓으로 가르치기: 환각 탐지를 위한 합성 부정적 데이터에 대한 커리큘럼 DPO
Teaching with Lies: Curriculum DPO on Synthetic Negatives for Hallucination Detection
Shrey Pandit, Ashwin Vinod, Liu Leqi, Ying Ding
•
May 23, 2025
•
13
2
맑은 밤을 향하여: 다양한 기상 조건에서의 야간 이미지 복원
Clear Nights Ahead: Towards Multi-Weather Nighttime Image Restoration
Yuetong Liu, Yunqiu Xu, Yang Wei, Xiuli Bi, Bin Xiao
•
May 22, 2025
•
11
2
음성 없는 학습: 저자원 언어를 위한 음성 없이 진행하는 음성 명령 훈련
Speechless: Speech Instruction Training Without Speech for Low Resource Languages
Alan Dao, Dinh Bach Vu, Huy Hoang Ha, Tuan Le Duc Anh, Shreyas Gopal, Yue Heng Yeo, Warren Keng Hoong Low, Eng Siong Chng, Jia Qi Yip
•
May 23, 2025
•
10
2
RBench-V: 다중 모달 출력을 갖는 시각적 추론 모델을 위한 기본 평가 프레임워크
RBench-V: A Primary Assessment for Visual Reasoning Models with Multi-modal Outputs
Meng-Hao Guo, Xuanyu Chu, Qianrui Yang, Zhe-Han Mo, Yiqing Shen, Pei-lin Li, Xinjie Lin, Jinnian Zhang, Xin-Sheng Chen, Yi Zhang, Kiyohiro Nakayama, Zhengyang Geng, Houwen Peng, Han Hu, Shi-Nin Hu
•
May 22, 2025
•
10
3
대규모 언어 모델에게 합성 작업과 강화 학습을 통해 문맥적 충실성을 유지하도록 가르치기
Teaching Large Language Models to Maintain Contextual Faithfulness via Synthetic Tasks and Reinforcement Learning
Shuzheng Si, Haozhe Zhao, Cheng Gao, Yuzhuo Bai, Zhitong Wang, Bofei Gao, Kangyang Luo, Wenhao Li, Yufei Huang, Gang Chen, Fanchao Qi, Minjia Zhang, Baobao Chang, Maosong Sun
•
May 22, 2025
•
10
5
Trinity-RFT: 대규모 언어 모델의 강화 학습 기반 미세 조정을 위한 범용 통합 프레임워크
Trinity-RFT: A General-Purpose and Unified Framework for Reinforcement Fine-Tuning of Large Language Models
Xuchen Pan, Yanxi Chen, Yushuo Chen, Yuchang Sun, Daoyuan Chen, Wenhao Zhang, Yuexiang Xie, Yilun Huang, Yilei Zhang, Dawei Gao, Yaliang Li, Bolin Ding, Jingren Zhou
•
May 23, 2025
•
9
2
ScanBot: 실체화된 로봇 시스템에서의 지능적 표면 스캐닝 기술
ScanBot: Towards Intelligent Surface Scanning in Embodied Robotic Systems
Zhiling Chen, Yang Zhang, Fardin Jalil Piran, Qianyu Zhou, Jiong Tang, Farhad Imani
•
May 22, 2025
•
9
2
비전-언어 모델은 실생활에서 안전한가? 밈 기반 벤치마크 연구
Are Vision-Language Models Safe in the Wild? A Meme-Based Benchmark Study
DongGeon Lee, Joonwon Jang, Jihae Jeong, Hwanjo Yu
•
May 21, 2025
•
8
2
합성 데이터 강화 학습: 과제 정의만으로 충분하다
Synthetic Data RL: Task Definition Is All You Need
Yiduo Guo, Zhen Guo, Chuanwei Huang, Zi-Ang Wang, Zekai Zhang, Haofei Yu, Huishuai Zhang, Yikang Shen
•
May 18, 2025
•
8
2
DanceTogether! 다중 사용자 상호작용 비디오 생성에서의 정체성 보존
DanceTogether! Identity-Preserving Multi-Person Interactive Video Generation
Junhao Chen, Mingjin Chen, Jianjin Xu, Xiang Li, Junting Dong, Mingze Sun, Puhua Jiang, Hongxiang Li, Yuhang Yang, Hao Zhao, Xiaoxiao Long, Ruqi Huang
•
May 23, 2025
•
6
2
RePrompt: 강화 학습을 통한 추론 강화 리프롬프팅 기반 텍스트-이미지 생성
RePrompt: Reasoning-Augmented Reprompting for Text-to-Image Generation via Reinforcement Learning
Mingrui Wu, Lu Wang, Pu Zhao, Fangkai Yang, Jianjin Zhang, Jianfeng Liu, Yuefeng Zhan, Weihao Han, Hao Sun, Jiayi Ji, Xiaoshuai Sun, Qingwei Lin, Weiwei Deng, Dongmei Zhang, Feng Sun, Qi Zhang, Rongrong Ji
•
May 23, 2025
•
6
2
Transformer Copilot: LLM 미세 조정에서의 오류 로그 학습
Transformer Copilot: Learning from The Mistake Log in LLM Fine-tuning
Jiaru Zou, Yikun Ban, Zihao Li, Yunzhe Qi, Ruizhong Qiu, Ling Yang, Jingrui He
•
May 22, 2025
•
6
2
LLM 추론을 위한 KL 정규화 정책 경사 알고리즘 설계에 관하여
On the Design of KL-Regularized Policy Gradient Algorithms for LLM Reasoning
Yifan Zhang, Yifeng Liu, Huizhuo Yuan, Yang Yuan, Quanquan Gu, Andrew C Yao
•
May 23, 2025
•
5
2
비전-언어-행동 모델을 위한 상호작용적 사후 훈련
Interactive Post-Training for Vision-Language-Action Models
Shuhan Tan, Kairan Dou, Yue Zhao, Philipp Krähenbühl
•
May 22, 2025
•
5
2
ReflAct: 목표 상태 반영을 통한 LLM 에이전트의 세계 기반 의사결정
ReflAct: World-Grounded Decision Making in LLM Agents via Goal-State Reflection
Jeonghye Kim, Sojeong Rhee, Minbeom Kim, Dohyung Kim, Sangmook Lee, Youngchul Sung, Kyomin Jung
•
May 21, 2025
•
5
2
대규모 언어 모델은 단순히 텍스트를 읽는 것만으로도 시각과 청각 정보를 암묵적으로 학습한다.
Large Language Models Implicitly Learn to See and Hear Just By Reading
Prateek Verma, Mert Pilanci
•
May 20, 2025
•
5
3
효율적인 사고 연쇄 추론을 위한 가치 기반 탐색
Value-Guided Search for Efficient Chain-of-Thought Reasoning
Kaiwen Wang, Jin Peng Zhou, Jonathan Chang, Zhaolin Gao, Nathan Kallus, Kianté Brantley, Wen Sun
•
May 23, 2025
•
4
2
전문가 오프로딩에 적합하지 않은 모델들: 혼합 전문가 모델의 지역적 라우팅 일관성에 관하여
Not All Models Suit Expert Offloading: On Local Routing Consistency of Mixture-of-Expert Models
Jingcong Liang, Siyuan Wang, Miren Tian, Yitong Li, Duyu Tang, Zhongyu Wei
•
May 21, 2025
•
3
2
보안 유지! 질문 응답에서 간접 공격에 대항한 대규모 언어 모델 컨텍스트 내 보안 정책 보존 벤치마킹
Keep Security! Benchmarking Security Policy Preservation in Large Language Model Contexts Against Indirect Attacks in Question Answering
Hwan Chang, Yumin Kim, Yonghyun Jun, Hwanhee Lee
•
May 21, 2025
•
3
2
잔여 연결 재고찰: 안정적이고 효율적인 딥 네트워크를 위한 직교 업데이트
Revisiting Residual Connections: Orthogonal Updates for Stable and Efficient Deep Networks
Giyeong Oh, Woohyun Cho, Siyeol Kim, Suhwan Choi, Younjae Yu
•
May 17, 2025
•
3
2
FREESON: 코퍼스 탐색 MCTS를 통한 검색기 없는 검색 강화 추론
FREESON: Retriever-Free Retrieval-Augmented Reasoning via Corpus-Traversing MCTS
Chaeeun Kim, Seungone Kim
•
May 22, 2025
•
2
2
복잡한 질의응답을 위한 동적 노트 작성을 통한 대형 언어 모델 추론 능력 강화
Augmenting LLM Reasoning with Dynamic Notes Writing for Complex QA
Rishabh Maheshwary, Masoud Hashemi, Khyati Mahajan, Shiva Krishna Reddy Malay, Sai Rajeswar, Sathwik Tejaswi Madhusudhan, Spandana Gella, Vikas Yadav
•
May 22, 2025
•
2
2
NOVER: 검증자 없는 강화 학습을 통한 언어 모델 인센티브 훈련
NOVER: Incentive Training for Language Models via Verifier-Free Reinforcement Learning
Wei Liu, Siya Qi, Xinyu Wang, Chen Qian, Yali Du, Yulan He
•
May 21, 2025
•
2
5
TIME: 실세계 시나리오에서 LLM의 시간적 추론을 위한 다층적 벤치마크
TIME: A Multi-level Benchmark for Temporal Reasoning of LLMs in Real-World Scenarios
Shaohang Wei, Wei Li, Feifan Song, Wen Luo, Tianyi Zhuang, Haochen Tan, Zhijiang Guo, Houfeng Wang
•
May 19, 2025
•
2
2
NileChat: 지역 사회를 위한 언어적 다양성과 문화적 인식을 갖춘 대형 언어 모델로의 여정
NileChat: Towards Linguistically Diverse and Culturally Aware LLMs for Local Communities
Abdellah El Mekki, Houdaifa Atou, Omer Nacar, Shady Shehata, Muhammad Abdul-Mageed
•
May 23, 2025
•
1
2
FuxiMT: 중국 중심 다국어 기계 번역을 위한 대규모 언어 모델 희소화
FuxiMT: Sparsifying Large Language Models for Chinese-Centric Multilingual Machine Translation
Shaolin Zhu, Tianyu Dong, Bo Li, Deyi Xiong
•
May 20, 2025
•
1
2
개선된 De Novo 펩타이드 시퀀싱을 위한 범용 생물학적 시퀀스 재순위화
Universal Biological Sequence Reranking for Improved De Novo Peptide Sequencing
Zijie Qiu, Jiaqi Wei, Xiang Zhang, Sheng Xu, Kai Zou, Zhi Jin, Zhiqiang Gao, Nanqing Dong, Siqi Sun
•
May 23, 2025
•
0
2