ChatPaper.aiChatPaper.ai
홈

arXiv

HuggingFace

요금제계정작업공간

•
•

•
•

•
•

•
•

•
•

Footer

Company name

ChatPaper.ai: Your advanced AI reading assistant.

Contact us: [email protected]

X (Twitter)

Products

  • AI Search
  • AI Mind Map
  • Arxiv Summary
  • Huggingface Summary

Support

  • FAQ
  • Contact

Company

  • Blog
  • Privacy Policy
  • Terms of Service

Available Languages

  • 🇬🇧English
  • 🇨🇳中文简体
  • 🇭🇰繁體中文
  • 🇯🇵日本語
  • 🇰🇷한국어
  • 🇩🇪Deutsch
  • 🇫🇷Français
  • 🇷🇺Русский
  • 🇪🇸Español

© 2025 chatpaper.ai All rights reserved.

AI 연구 논문 데일리

번역이 포함된 일일 선별된 AI 연구 논문

Mutarjim: 소규모 언어 모델을 활용한 아랍어-영어 양방향 번역 기술 발전
Mutarjim: Advancing Bidirectional Arabic-English Translation with a Small Language Model

Khalil Hennara, Muhammad Hreden, Mohamed Motaism Hamed, Zeina Aldallal, Sara Chrouf, Safwan AlModhayan•May 23, 2025•1996

AI 효율성 전환: 모델 중심 압축에서 데이터 중심 압축으로
Shifting AI Efficiency From Model-Centric to Data-Centric Compression

Xuyang Liu, Zichen Wen, Shaobo Wang, Junjie Chen, Zhishan Tao, Yubo Wang, Xiangqi Jin, Chang Zou, Yiyu Wang, Chenfei Liao, Xu Zheng, Honggang Chen, Weijia Li, Xuming Hu, Conghui He, Linfeng Zhang•May 25, 2025•1334

Alchemist: 공개 텍스트-이미지 데이터를 생성형 금으로 변환하기
Alchemist: Turning Public Text-to-Image Data into Generative Gold

Valerii Startsev, Alexander Ustyuzhanin, Alexey Kirillov, Dmitry Baranchuk, Sergey Kastryulin•May 25, 2025•632

BizFinBench: 대형 언어 모델 평가를 위한 비즈니스 중심의 실세계 금융 벤치마크
BizFinBench: A Business-Driven Real-World Financial Benchmark for Evaluating LLMs

Guilong Lu, Xuntao Guo, Rongjunchen Zhang, Wenqiao Zhu, Ji Liu•May 26, 2025•594

PATS: 프로세스 수준 적응적 사고 모드 전환
PATS: Process-Level Adaptive Thinking Mode Switching

Yi Wang, Junxiao Liu, Shimao Zhang, Jiajun Chen, Shujian Huang•May 25, 2025•452

구현된 에이전트와 개인화의 만남: 개인 맞춤형 지원을 위한 메모리 활용 탐구
Embodied Agents Meet Personalization: Exploring Memory Utilization for Personalized Assistance

Taeyoon Kwon, Dongwook Choi, Sunghwan Kim, Hyojun Kim, Seungjun Moon, Beong-woo Kwak, Kuan-Hao Huang, Jinyoung Yeo•May 22, 2025•432

ARM: 적응형 추론 모델
ARM: Adaptive Reasoning Model

Siye Wu, Jian Xie, Yikai Zhang, Aili Chen, Kai Zhang, Yu Su, Yanghua Xiao•May 26, 2025•414

Enigmata: 검증 가능한 합성 퍼즐을 활용한 대규모 언어 모델의 논리적 추론 능력 확장
Enigmata: Scaling Logical Reasoning in Large Language Models with Synthetic Verifiable Puzzles

Jiangjie Chen, Qianyu He, Siyu Yuan, Aili Chen, Zhicheng Cai, Weinan Dai, Hongli Yu, Qiying Yu, Xuefeng Li, Jiaze Chen, Hao Zhou, Mingxuan Wang•May 26, 2025•371

궤적 지원 LLM 추론 해독: 최적화 관점에서의 접근
Deciphering Trajectory-Aided LLM Reasoning: An Optimization Perspective

Junnan Liu, Hongwei Liu, Linchen Xiao, Shudong Liu, Taolin Zhang, Zihan Ma, Songyang Zhang, Kai Chen•May 26, 2025•362

형식과 길이로부터의 대리 신호: 정답 없이 수학 문제를 해결하기 위한 강화 학습
Surrogate Signals from Format and Length: Reinforcement Learning for Solving Mathematical Problems without Ground Truth Answers

Rihui Xin, Han Liu, Zecheng Wang, Yupeng Zhang, Dianbo Sui, Xiaolin Hu, Bingning Wang•May 26, 2025•292

B-점수: 응답 기록을 활용한 대규모 언어 모델의 편향 탐지
B-score: Detecting biases in large language models using response history

An Vo, Mohammad Reza Taesiri, Daeyoung Kim, Anh Totti Nguyen•May 24, 2025•282

Flex-Judge: 한 번 생각하고, 어디서든 판단하라
Flex-Judge: Think Once, Judge Anywhere

Jongwoo Ko, Sungnyun Kim, Sungwoo Cho, Se-Young Yun•May 24, 2025•252

MOOSE-Chem2: 계층적 탐색을 통한 세밀한 과학적 가설 발견에서의 LLM 한계 탐구
MOOSE-Chem2: Exploring LLM Limits in Fine-Grained Scientific Hypothesis Discovery via Hierarchical Search

Zonglin Yang, Wanhao Liu, Ben Gao, Yujie Liu, Wei Li, Tong Xie, Lidong Bing, Wanli Ouyang, Erik Cambria, Dongzhan Zhou•May 25, 2025•242

외부 보상 없이 추론 학습하기
Learning to Reason without External Rewards

Xuandong Zhao, Zhewei Kang, Aosong Feng, Sergey Levine, Dawn Song•May 26, 2025•232

MLLM이 나를 집으로 안내할 수 있을까? 대중교통 지도에서의 세밀한 시각적 추론에 대한 벤치마크 연구
Can MLLMs Guide Me Home? A Benchmark Study on Fine-Grained Visual Reasoning from Transit Maps

Sicheng Feng, Song Wang, Shuyi Ouyang, Lingdong Kong, Zikai Song, Jianke Zhu, Huan Wang, Xinchao Wang•May 24, 2025•233

언어 모델을 위한 평생 안전 정렬
Lifelong Safety Alignment for Language Models

Haoyu Wang, Zeyu Qin, Yifei Zhao, Chao Du, Min Lin, Xueqian Wang, Tianyu Pang•May 26, 2025•221

Jodi: 시각적 생성과 이해의 통합을 위한 공동 모델링
Jodi: Unification of Visual Generation and Understanding via Joint Modeling

Yifeng Xu, Zhenliang He, Meina Kan, Shiguang Shan, Xilin Chen•May 25, 2025•202

StructEval: 구조적 출력 생성 능력에 대한 LLM 벤치마킹
StructEval: Benchmarking LLMs' Capabilities to Generate Structural Outputs

Jialin Yang, Dongfu Jiang, Lipeng He, Sherman Siu, Yuxuan Zhang, Disen Liao, Zhuofeng Li, Huaye Zeng, Yiming Jia, Haozhe Wang, Benjamin Schneider, Chi Ruan, Wentao Ma, Zhiheng Lyu, Yifei Wang, Yi Lu, Quy Duc Do, Ziyan Jiang, Ping Nie, Wenhu Chen•May 26, 2025•181

강화 미세 조정이 다중 모달 대형 언어 모델의 추론 능력을 강화한다
Reinforcement Fine-Tuning Powers Reasoning Capability of Multimodal Large Language Models

Haoyuan Sun, Jiaqi Wu, Bo Xia, Yifu Luo, Yifei Zhao, Kai Qin, Xufei Lv, Tiantian Zhang, Yongzhe Chang, Xueqian Wang•May 24, 2025•183

REARANK: 강화 학습 기반 추론 재순위화 에이전트
REARANK: Reasoning Re-ranking Agent via Reinforcement Learning

Le Zhang, Bo Wang, Xipeng Qiu, Siva Reddy, Aishwarya Agrawal•May 26, 2025•172

ModernGBERT: 처음부터 학습된 독일어 전용 10억 파라미터 인코더 모델
ModernGBERT: German-only 1B Encoder Model Trained from Scratch

Anton Ehrmanntraut, Julia Wunderle, Jan Pfister, Fotis Jannidis, Andreas Hotho•May 19, 2025•172

이산 마르코프 브리지
Discrete Markov Bridge

Hengli Li, Yuxuan Wang, Song-Chun Zhu, Ying Nian Wu, Zilong Zheng•May 26, 2025•162

Omni-R1: 양 시스템 협업을 통한 전모달 추론을 위한 강화 학습
Omni-R1: Reinforcement Learning for Omnimodal Reasoning via Two-System Collaboration

Hao Zhong, Muzhi Zhu, Zongze Du, Zheng Huang, Canyu Zhao, Mingyu Liu, Wen Wang, Hao Chen, Chunhua Shen•May 26, 2025•151

어떤 데이터 속성이 수학 및 코드 추론을 자극하는가? 영향 함수를 통한 조사
Which Data Attributes Stimulate Math and Code Reasoning? An Investigation via Influence Functions

Siqi Kou, Qingyuan Tian, Hanwen Xu, Zihao Zeng, Zhijie Deng•May 26, 2025•151

실시간 인터랙티브 유체 시뮬레이션을 위한 하이브리드 신경망-MPM 기법
Hybrid Neural-MPM for Interactive Fluid Simulations in Real-Time

Jingxuan Xu, Hong Huang, Chuhang Zou, Manolis Savva, Yunchao Wei, Wuyang Chen•May 25, 2025•152

Vibe 코딩 대 에이전트 코딩: 에이전트 AI의 기본 원리와 실제적 함의
Vibe Coding vs. Agentic Coding: Fundamentals and Practical Implications of Agentic AI

Ranjan Sapkota, Konstantinos I. Roumeliotis, Manoj Karkee•May 26, 2025•142

완벽보다 완료가 낫다: 구조화된 다중 터논리 분해를 통한 효율적 추론의 해방
Done Is Better than Perfect: Unlocking Efficient Reasoning by Structured Multi-Turn Decomposition

Zihao Zeng, Xuyao Huang, Boxiu Li, Hao Zhang, Zhijie Deng•May 26, 2025•132

스케일 인식 KV 캐시 압축을 통한 메모리 효율적인 시각적 자기회귀 모델링
Memory-Efficient Visual Autoregressive Modeling with Scale-Aware KV Cache Compression

Kunjun Li, Zigeng Chen, Cheng-Yen Yang, Jenq-Neng Hwang•May 26, 2025•132

AdaCtrl: 난이도 인식 예산 할당을 통한 적응형 및 제어 가능한 추론 방향
AdaCtrl: Towards Adaptive and Controllable Reasoning via Difficulty-Aware Budgeting

Shijue Huang, Hongru Wang, Wanjun Zhong, Zhaochen Su, Jiazhan Feng, Bowen Cao, Yi R. Fung•May 24, 2025•132

효율적 추론을 위한 탐구: CoT 증류를 위한 데이터 중심 벤치마크
The Quest for Efficient Reasoning: A Data-Centric Benchmark to CoT Distillation

Ruichen Zhang, Rana Muhammad Shahroz Khan, Zhen Tan, Dawei Li, Song Wang, Tianlong Chen•May 24, 2025•123

대규모 멀티모달 모델을 위한 세밀한 기하학적 이해를 위한 강한 부정적 대조 학습
Hard Negative Contrastive Learning for Fine-Grained Geometric Understanding in Large Multimodal Models

Kai Sun, Yushi Bai, Zhen Yang, Jiajie Zhang, Ji Qi, Lei Hou, Juanzi Li•May 26, 2025•111

포스 프롬프팅: 비디오 생성 모델이 물리 기반 제어 신호를 학습하고 일반화할 수 있다
Force Prompting: Video Generation Models Can Learn and Generalize Physics-based Control Signals

Nate Gillman, Charles Herrmann, Michael Freeman, Daksh Aggarwal, Evan Luo, Deqing Sun, Chen Sun•May 26, 2025•112

G1: 강화 학습을 통한 시각-언어 모델의 지각 및 추론 능력 부트스트래핑
G1: Bootstrapping Perception and Reasoning Abilities of Vision-Language Model via Reinforcement Learning

Liang Chen, Hongcheng Gao, Tianyu Liu, Zhiqi Huang, Flood Sung, Xinyu Zhou, Yuxin Wu, Baobao Chang•May 19, 2025•112

강화 학습을 통한 대규모 언어 모델을 위한 인터리브 추론
Interleaved Reasoning for Large Language Models via Reinforcement Learning

Roy Xie, David Qiu, Deepak Gopinath, Dong Lin, Yanchao Sun, Chong Wang, Saloni Potdar, Bhuwan Dhingra•May 26, 2025•103

WHISTRESS: 문장 강세 탐지를 통한 전사 자료의 풍부화
WHISTRESS: Enriching Transcriptions with Sentence Stress Detection

Iddo Yosha, Dorin Shteyman, Yossi Adi•May 25, 2025•102

WINA: 대규모 언어 모델 추론 가속화를 위한 가중치 정보 기반 뉴런 활성화
WINA: Weight Informed Neuron Activation for Accelerating Large Language Model Inference

Sihan Chen, Dan Zhao, Jongwoo Ko, Colby Banbury, Huiping Zhuang, Luming Liang, Tianyi Chen•May 26, 2025•92

수십 시간에서 수만 시간으로: 음성 인식을 위한 역번역 확장
From Tens of Hours to Tens of Thousands: Scaling Back-Translation for Speech Recognition

Tianduo Wang, Lu Xu, Wei Lu, Shanbo Cheng•May 22, 2025•92

MLR-Bench: 개방형 머신러닝 연구에서 AI 에이전트 평가
MLR-Bench: Evaluating AI Agents on Open-Ended Machine Learning Research

Hui Chen, Miao Xiong, Yujie Lu, Wei Han, Ailin Deng, Yufei He, Jiaying Wu, Yibo Li, Yue Liu, Bryan Hooi•May 26, 2025•81

LLaDA 1.5: 대규모 언어 확산 모델을 위한 분산 감소 기반 선호도 최적화
LLaDA 1.5: Variance-Reduced Preference Optimization for Large Language Diffusion Models

Fengqi Zhu, Rongzhen Wang, Shen Nie, Xiaolu Zhang, Chunwei Wu, Jun Hu, Jun Zhou, Jianfei Chen, Yankai Lin, Ji-Rong Wen, Chongxuan Li•May 25, 2025•82

STAR-R1: 다중모드 LLM 강화를 통한 공간 변환 추론
STAR-R1: Spatial TrAnsformation Reasoning by Reinforcing Multimodal LLMs

Zongzhao Li, Zongyang Ma, Mingze Li, Songyou Li, Yu Rong, Tingyang Xu, Ziqi Zhang, Deli Zhao, Wenbing Huang•May 21, 2025•82

InfantAgent-Next: 자동화된 컴퓨터 상호작용을 위한 멀티모달 일반 에이전트
InfantAgent-Next: A Multimodal Generalist Agent for Automated Computer Interaction

Bin Lei, Weitai Kang, Zijian Zhang, Winson Chen, Xi Xie, Shan Zuo, Mimi Xie, Ali Payani, Mingyi Hong, Yan Yan, Caiwen Ding•May 16, 2025•82

커버리지 원칙: 조합적 일반화를 이해하기 위한 프레임워크
The Coverage Principle: A Framework for Understanding Compositional Generalization

Hoyeon Chang, Jinho Park, Hanseul Cho, Sohee Yang, Miyoung Ko, Hyeonbin Hwang, Seungpil Won, Dohaeng Lee, Youbin Ahn, Minjoon Seo•May 26, 2025•71

대규모 데이터셋 및 (중간 규모) 대형 언어 모델에 대한 강력한 멤버십 추론 공격
Strong Membership Inference Attacks on Massive Datasets and (Moderately) Large Language Models

Jamie Hayes, Ilia Shumailov, Christopher A. Choquette-Choo, Matthew Jagielski, George Kaissis, Katherine Lee, Milad Nasr, Sahra Ghalebikesabi, Niloofar Mireshghallah, Meenatchi Sundaram Mutu Selva Annamalai, Igor Shilov, Matthieu Meeus, Yves-Alexandre de Montjoye, Franziska Boenisch, Adam Dziedzic, A. Feder Cooper•May 24, 2025•72

공격적 사이버보안 에이전트를 위한 동적 위험 평가
Dynamic Risk Assessments for Offensive Cybersecurity Agents

Boyi Wei, Benedikt Stroebl, Jiacen Xu, Joie Zhang, Zhou Li, Peter Henderson•May 23, 2025•72

미러 프록스를 통한 인간 피드백 기반 내쉬 학습 가속화
Accelerating Nash Learning from Human Feedback via Mirror Prox

Daniil Tiapkin, Daniele Calandriello, Denis Belomestny, Eric Moulines, Alexey Naumov, Kashif Rasul, Michal Valko, Pierre Menard•May 26, 2025•62

LLM 추론을 위한 강화 학습의 샘플링 기준 재고: 역량-난이도 정렬 관점
Rethinking the Sampling Criteria in Reinforcement Learning for LLM Reasoning: A Competence-Difficulty Alignment Perspective

Deyang Kong, Qi Guo, Xiangyu Xi, Wei Wang, Jingang Wang, Xunliang Cai, Shikun Zhang, Wei Ye•May 23, 2025•62

위치: 기계적 해석성은 SAE에서 특징 일관성을 우선시해야 한다
Position: Mechanistic Interpretability Should Prioritize Feature Consistency in SAEs

Xiangchen Song, Aashiq Muhamed, Yujia Zheng, Lingjing Kong, Zeyu Tang, Mona T. Diab, Virginia Smith, Kun Zhang•May 26, 2025•51

"패시지 재순위화를 '과도하게 고민'하지 말자: 추론이 정말 필요한가?"
Don't "Overthink" Passage Reranking: Is Reasoning Truly Necessary?

Nour Jedidi, Yung-Sung Chuang, James Glass, Jimmy Lin•May 22, 2025•52

LLM 절멸 공격에 대한 놀라울 정도로 간단한 방어 전략
An Embarrassingly Simple Defense Against LLM Abliteration Attacks

Harethah Abu Shairah, Hasan Abed Al Kader Hammoud, Bernard Ghanem, George Turkiyyah•May 25, 2025•42

강화 학습을 통한 하이브리드 잠재 추론
Hybrid Latent Reasoning via Reinforcement Learning

Zhenrui Yue, Bowen Jin, Huimin Zeng, Honglei Zhuang, Zhen Qin, Jinsung Yoon, Lanyu Shang, Jiawei Han, Dong Wang•May 24, 2025•42

수학적 추론에서 지도 학습과 강화 학습의 간극 메우기
Bridging Supervised Learning and Reinforcement Learning in Math Reasoning

Huayu Chen, Kaiwen Zheng, Qinsheng Zhang, Ganqu Cui, Yin Cui, Haotian Ye, Tsung-Yi Lin, Ming-Yu Liu, Jun Zhu, Haoxiang Wang•May 23, 2025•42

GLEAM: 복잡한 3D 실내 환경에서의 능동적 매핑을 위한 일반화 가능한 탐사 정책 학습
GLEAM: Learning Generalizable Exploration Policy for Active Mapping in Complex 3D Indoor Scenes

Xiao Chen, Tai Wang, Quanyi Li, Tao Huang, Jiangmiao Pang, Tianfan Xue•May 26, 2025•31

스마트 보상을 위한 오류 입력: 오류 인식 계층적 지도를 통해 프로세스 보상 모델 개선하기
Error Typing for Smarter Rewards: Improving Process Reward Models with Error-Aware Hierarchical Supervision

Tej Deep Pala, Panshul Sharma, Amir Zadeh, Chuan Li, Soujanya Poria•May 26, 2025•32

DoctorAgent-RL: 다중 턴 임상 대화를 위한 다중 에이전트 협업 강화 학습 시스템
DoctorAgent-RL: A Multi-Agent Collaborative Reinforcement Learning System for Multi-Turn Clinical Dialogue

Yichun Feng, Jiawei Wang, Lu Zhou, Yixue Li•May 26, 2025•32

배치 내 데이터 유출 및 모델 추론 조작을 위한 아키텍처 백도어
Architectural Backdoors for Within-Batch Data Stealing and Model Inference Manipulation

Nicolas Küchler, Ivan Petrov, Conrad Grobler, Ilia Shumailov•May 23, 2025•32

UFT: 지도 학습과 강화 학습 미세 조정의 통합
UFT: Unifying Supervised and Reinforcement Fine-Tuning

Mingyang Liu, Gabriele Farina, Asuman Ozdaglar•May 22, 2025•33

EquivPruner: 액션 프루닝을 통한 LLM 기반 검색의 효율성 및 품질 향상
EquivPruner: Boosting Efficiency and Quality in LLM-Based Search via Action Pruning

Jiawei Liu, Qisi Chen, Jianshu Zhang, Quan Liu, Defu Lian•May 22, 2025•33

DiSA: 자기회귀적 이미지 생성에서의 확산 단계 어닐링
DiSA: Diffusion Step Annealing in Autoregressive Image Generation

Qinyu Zhao, Jaskirat Singh, Ming Xu, Akshay Asthana, Stephen Gould, Liang Zheng•May 26, 2025•21

보는 것이 믿는 것이지만, 얼마나 믿을 만한가? 시각-언어 모델의 언어화된 보정에 대한 포괄적 분석
Seeing is Believing, but How Much? A Comprehensive Analysis of Verbalized Calibration in Vision-Language Models

Weihao Xuan, Qingcheng Zeng, Heli Qi, Junjue Wang, Naoto Yokoya•May 26, 2025•21

FLAME-MoE: 전문가 혼합 언어 모델을 위한 투명한 종단간 연구 플랫폼
FLAME-MoE: A Transparent End-to-End Research Platform for Mixture-of-Experts Language Models

Hao Kang, Zichun Yu, Chenyan Xiong•May 26, 2025•21

MMIG-Bench: 다중 모달 이미지 생성 모델의 포괄적이고 설명 가능한 평가를 위한 프레임워크
MMIG-Bench: Towards Comprehensive and Explainable Evaluation of Multi-Modal Image Generation Models

Hang Hua, Ziyun Zeng, Yizhi Song, Yunlong Tang, Liu He, Daniel Aliaga, Wei Xiong, Jiebo Luo•May 26, 2025•22

기계의 실용적 사고: 대규모 언어 모델에서 실용적 능력의 출현 추적
The Pragmatic Mind of Machines: Tracing the Emergence of Pragmatic Competence in Large Language Models

Kefan Yu, Qingcheng Zeng, Weihao Xuan, Wanxin Li, Jingyi Wu, Rob Voigt•May 24, 2025•22

InstructPart: 지시 기반 추론을 통한 작업 지향적 부분 분할
InstructPart: Task-Oriented Part Segmentation with Instruction Reasoning

Zifu Wan, Yaqi Xie, Ce Zhang, Zhiqiu Lin, Zihan Wang, Simon Stepputtis, Deva Ramanan, Katia Sycara•May 23, 2025•22

TAGS: 검증 및 검색 강화 추론을 통한 테스트 타임 제너럴리스트-스페셜리스트 프레임워크
TAGS: A Test-Time Generalist-Specialist Framework with Retrieval-Augmented Reasoning and Verification

Jianghao Wu, Feilong Tang, Yulong Li, Ming Hu, Haochen Xue, Shoaib Jameel, Yutong Xie, Imran Razzak•May 23, 2025•22

대규모 오디오-언어 모델의 종합적 평가를 위한 포괄적 조사
Towards Holistic Evaluation of Large Audio-Language Models: A Comprehensive Survey

Chih-Kai Yang, Neo S. Ho, Hung-yi Lee•May 21, 2025•22

EgoZero: 스마트 안경을 활용한 로봇 학습
EgoZero: Robot Learning from Smart Glasses

Vincent Liu, Ademi Adeniji, Haotian Zhan, Raunaq Bhirangi, Pieter Abbeel, Lerrel Pinto•May 26, 2025•11

MOLE: 대형 언어 모델을 활용한 과학 논문의 메타데이터 추출 및 검증
MOLE: Metadata Extraction and Validation in Scientific Papers Using LLMs

Zaid Alyafeai, Maged S. Al-Shaibani, Bernard Ghanem•May 26, 2025•11

지식의 탄생: 대규모 언어 모델에서 시간, 공간, 그리고 규모를 넘나드는 창발적 특성
The Birth of Knowledge: Emergent Features across Time, Space, and Scale in Large Language Models

Shashata Sawmya, Micah Adler, Nir Shavit•May 26, 2025•12

CASS: 데이터, 모델, 벤치마크를 활용한 Nvidia에서 AMD로의 트랜스파일레이션
CASS: Nvidia to AMD Transpilation with Data, Models, and Benchmark

Ahmed Heakl, Sarim Hashmi, Gustavo Bertolo Stahl, Seung Hun Eddie Han, Salman Khan, Abdulrahman Mahmoud•May 22, 2025•12

텍스트 기반 조정 벡터가 멀티모달 대형 언어 모델의 시각적 이해를 향상시킬 수 있다
Textual Steering Vectors Can Improve Visual Understanding in Multimodal Large Language Models

Woody Haosheng Gan, Deqing Fu, Julian Asilis, Ollie Liu, Dani Yogatama, Vatsal Sharan, Robin Jia, Willie Neiswanger•May 20, 2025•12

오프라인 목표-조건 강화 학습을 위한 옵션 인식 시간적 추상화 가치
Option-aware Temporally Abstracted Value for Offline Goal-Conditioned Reinforcement Learning

Hongjoon Ahn, Heewoong Choi, Jisu Han, Taesup Moon•May 19, 2025•12