ChatPaper.ai
메뉴 열기
홈
오늘의 논문
arXiv
HuggingFace
요금제
계정
작업공간
🇰🇷
한국어
Loading...
•
•
•
•
•
•
•
•
•
•
AI 연구 논문 데일리
번역이 포함된 일일 선별된 AI 연구 논문
August 29th, 2024
전문가 집합을 위한 보조 손실 없는 부하 분산 전략
Auxiliary-Loss-Free Load Balancing Strategy for Mixture-of-Experts
Lean Wang, Huazuo Gao, Chenggang Zhao, Xu Sun, Damai Dai
•
Aug 28, 2024
•
12
3
돌핀: 에너지 효율적인 온-디바이스 언어 모델을 위한 새로운 모달리티로서의 긴 문맥
Dolphin: Long Context as a New Modality for Energy-Efficient On-Device Language Models
Wei Chen, Zhiyuan Li, Shuo Xin, Yihao Wang
•
Aug 28, 2024
•
43
4
독수리: 다중 모달 LLMs의 디자인 공간 탐색과 인코더 혼합
Eagle: Exploring The Design Space for Multimodal LLMs with Mixture of Encoders
Min Shi, Fuxiao Liu, Shihao Wang, Shijia Liao, Subhashree Radhakrishnan, De-An Huang, Hongxu Yin, Karan Sapra, Yaser Yacoob, Humphrey Shi, Bryan Catanzaro, Andrew Tao, Jan Kautz, Zhiding Yu, Guilin Liu
•
Aug 28, 2024
•
88
3
분포 백트래킹은 일단의 확산 증류에 대해 빠른 수렴 궤적을 형성합니다.
Distribution Backtracking Builds A Faster Convergence Trajectory for One-step Diffusion Distillation
Shengyuan Zhang, Ling Yang, Zejian Li, An Zhao, Chenye Meng, Changyuan Yang, Guang Yang, Zhiyuan Yang, Lingyun Sun
•
Aug 28, 2024
•
16
2
지식 내비게이터: 과학 문헌에서의 탐색적 검색을 위한 LLM 안내형 브라우징 프레임워크
Knowledge Navigator: LLM-guided Browsing Framework for Exploratory Search in Scientific Literature
Uri Katz, Mosh Levy, Yoav Goldberg
•
Aug 28, 2024
•
13
4
대규모 언어 모델에서 작업 전문성 향상을 위해 오픈 지식을 활용하기
Leveraging Open Knowledge for Advancing Task Expertise in Large Language Models
Yuncheng Yang, Yulei Qin, Tong Wu, Zihan Xu, Gang Li, Pengcheng Guo, Hang Shao, Yucheng Shi, Ke Li, Xing Sun, Jie Yang, Yun Gu
•
Aug 28, 2024
•
20
4
TEDRA: 텍스트 기반 동적 및 사실적 배우 편집
TEDRA: Text-based Editing of Dynamic and Photoreal Actors
Basavaraj Sunagad, Heming Zhu, Mohit Mendiratta, Adam Kortylewski, Christian Theobalt, Marc Habermann
•
Aug 28, 2024
•
4
2
다음 토큰 예측을 통한 맥락 내 모방 학습
In-Context Imitation Learning via Next-Token Prediction
Letian Fu, Huang Huang, Gaurav Datta, Lawrence Yunliang Chen, William Chung-Ho Panitch, Fangchen Liu, Hui Li, Ken Goldberg
•
Aug 28, 2024
•
10
3
LLaVA-MoD: MoE 지식 증류를 통해 LLaVA를 소형화하기
LLaVA-MoD: Making LLaVA Tiny via MoE Knowledge Distillation
Fangxun Shu, Yue Liao, Le Zhuo, Chenning Xu, Guanghao Zhang, Haonan Shi, Long Chen, Tao Zhong, Wanggui He, Siming Fu, Haoyuan Li, Bolin Li, Zhelun Yu, Si Liu, Hongsheng Li, Hao Jiang
•
Aug 28, 2024
•
22
2
학습을 통해 순위를 매겨 효율적인 LLM 일정 계획 설정
Efficient LLM Scheduling by Learning to Rank
Yichao Fu, Siqi Zhu, Runlong Su, Aurick Qiao, Ion Stoica, Hao Zhang
•
Aug 28, 2024
•
21
2
실제 예제 기반 모델링을 위한 3D 가우시안 스티칭을 향하여
Towards Realistic Example-based Modeling via 3D Gaussian Stitching
Xinyu Gao, Ziyi Yang, Bingchen Gong, Xiaoguang Han, Sipeng Yang, Xiaogang Jin
•
Aug 28, 2024
•
8
3
BaichuanSEED: 경쟁력 있는 대형 언어 모델 기준 도입을 통해 광범위한 데이터 수집 및 중복 제거의 잠재력 공유
BaichuanSEED: Sharing the Potential of ExtensivE Data Collection and Deduplication by Introducing a Competitive Large Language Model Baseline
Guosheng Dong, Da Pan, Yiding Sun, Shusen Zhang, Zheng Liang, Xin Wu, Yanjun Shen, Fan Yang, Haoze Sun, Tianpeng Li, Mingan Lin, Jianhua Xu, Yufan Zhang, Xiaonan Nie, Lei Su, Bingning Wang, Wentao Zhang, Jiaxin Mao, Zenan Zhou, Weipeng Chen
•
Aug 27, 2024
•
55
4
ReMamba: 효과적인 장기 시퀀스 모델링을 위한 Mamba 장비
ReMamba: Equip Mamba with Effective Long-Sequence Modeling
Danlong Yuan, Jiahao Liu, Bei Li, Huishuai Zhang, Jingang Wang, Xunliang Cai, Dongyan Zhao
•
Aug 28, 2024
•
12
2