ChatPaper.ai
Menu openen
Home
Dagelijkse Papers
arXiv
HuggingFace
Prijzen
Account
Werkruimte
🇬🇧
English
Loading...
•
•
•
•
•
•
•
•
•
•
AI Onderzoekspapers Dagelijks
Dagelijks geselecteerde AI onderzoekspapers met vertalingen
February 26th, 2025
SWE-RL: Verbetering van LLM-redenering via Reinforcement Learning op Open Software-evolutie
SWE-RL: Advancing LLM Reasoning via Reinforcement Learning on Open Software Evolution
Yuxiang Wei, Olivier Duchenne, Jade Copet, Quentin Carbonneaux, Lingming Zhang, Daniel Fried, Gabriel Synnaeve, Rishabh Singh, Sida I. Wang
•
Feb 25, 2025
•
74
5
OmniAlign-V: Naar verbeterde afstemming van MLLM's met menselijke voorkeuren
OmniAlign-V: Towards Enhanced Alignment of MLLMs with Human Preference
Xiangyu Zhao, Shengyuan Ding, Zicheng Zhang, Haian Huang, Maosong Cao, Weiyun Wang, Jiaqi Wang, Xinyu Fang, Wenhai Wang, Guangtao Zhai, Haodong Duan, Hua Yang, Kai Chen
•
Feb 25, 2025
•
73
2
SpargeAttn: Nauwkeurige Sparse Attention voor Versnelde Inferentie van Elk Model
SpargeAttn: Accurate Sparse Attention Accelerating Any Model Inference
Jintao Zhang, Chendong Xiang, Haofeng Huang, Jia Wei, Haocheng Xi, Jun Zhu, Jianfei Chen
•
Feb 25, 2025
•
57
2
ART: Anonieme Regio Transformer voor Variabele Multi-Laag Transparante Beeldgeneratie
ART: Anonymous Region Transformer for Variable Multi-Layer Transparent Image Generation
Yifan Pu, Yiming Zhao, Zhicong Tang, Ruihong Yin, Haoxing Ye, Yuhui Yuan, Dong Chen, Jianmin Bao, Sirui Zhang, Yanbin Wang, Lin Liang, Lijuan Wang, Ji Li, Xiu Li, Zhouhui Lian, Gao Huang, Baining Guo
•
Feb 25, 2025
•
36
4
KV-Edit: Training-Vrij Beeldbewerken voor Nauwkeurige Achtergrondbehoud
KV-Edit: Training-Free Image Editing for Precise Background Preservation
Tianrui Zhu, Shiyi Zhang, Jiawei Shao, Yansong Tang
•
Feb 24, 2025
•
36
3
Het onthullen van de schaalbaarheid van downstream-prestaties van LLM's: een clustering-gebaseerd perspectief
Unveiling Downstream Performance Scaling of LLMs: A Clustering-Based Perspective
Chengyin Xu, Kaiyuan Chen, Xiao Li, Ke Shen, Chenggang Li
•
Feb 24, 2025
•
20
2
Curie: Naar Rigoureuze en Geautomatiseerde Wetenschappelijke Experimentatie met AI-Agenten
Curie: Toward Rigorous and Automated Scientific Experimentation with AI Agents
Patrick Tser Jern Kon, Jiachen Liu, Qiuyi Ding, Yiming Qiu, Zhenning Yang, Yibo Huang, Jayanth Srinivasa, Myungjin Lee, Mosharaf Chowdhury, Ang Chen
•
Feb 22, 2025
•
19
5
K-LoRA: Training-vrije fusie van willekeurige onderwerpen en stijlen met LoRA's mogelijk maken
K-LoRA: Unlocking Training-Free Fusion of Any Subject and Style LoRAs
Ziheng Ouyang, Zhen Li, Qibin Hou
•
Feb 25, 2025
•
15
2
Het introduceren van visuele perceptie-tokens in multimodale grote taalmodellen
Introducing Visual Perception Token into Multimodal Large Language Model
Runpeng Yu, Xinyin Ma, Xinchao Wang
•
Feb 24, 2025
•
15
2
Schaal-distributie-ontkoppeling: Het mogelijk maken van stabiele en effectieve training van grote taalmodelen
Scale-Distribution Decoupling: Enabling Stable and Effective Training of Large Language Models
Ya Wang, Zhijian Zhuo, Yutao Zeng, Xun Zhou, Jian Yang, Xiaoqing Li
•
Feb 21, 2025
•
13
2
WebGames: Een uitdaging voor algemene web-browsing AI-agenten
WebGames: Challenging General-Purpose Web-Browsing AI Agents
George Thomas, Alex J. Chan, Jikun Kang, Wenqi Wu, Filippos Christianos, Fraser Greenlee, Andy Toulis, Marvin Purtorab
•
Feb 25, 2025
•
12
2
De Lottery LLM-hypothese: Heroverweging van Welke Vaardigheden LLM-compressie Moet Behouden?
The Lottery LLM Hypothesis, Rethinking What Abilities Should LLM Compression Preserve?
Zhenheng Tang, Xiang Liu, Qian Wang, Peijie Dong, Bingsheng He, Xiaowen Chu, Bo Li
•
Feb 24, 2025
•
8
2
MLLMs Weten Waar Ze Moeten Kijken: Trainingsvrije Waarneming van Kleine Visuele Details met Multimodale LLMs
MLLMs Know Where to Look: Training-free Perception of Small Visual Details with Multimodal LLMs
Jiarui Zhang, Mahyar Khayatkhoei, Prateek Chhikara, Filip Ilievski
•
Feb 24, 2025
•
7
2
Prompt-to-Leaderboard
Prompt-to-Leaderboard
Evan Frick, Connor Chen, Joseph Tennyson, Tianle Li, Wei-Lin Chiang, Anastasios N. Angelopoulos, Ion Stoica
•
Feb 20, 2025
•
7
3
Het vinden van het juiste evenwicht: het opbouwen van voorkeursgegevens voor het schalen van voorkeursoptimalisatie
Finding the Sweet Spot: Preference Data Construction for Scaling Preference Optimization
Yao Xiao, Hai Ye, Linyao Chen, Hwee Tou Ng, Lidong Bing, Xiaoli Li, Roy Ka-wei Lee
•
Feb 24, 2025
•
6
2
LDGen: Verbetering van tekst-naar-beeld-synthese via taalrepresentatie aangedreven door grote taalmodellen
LDGen: Enhancing Text-to-Image Synthesis via Large Language Model-Driven Language Representation
Pengzhi Li, Pengfei Yu, Zide Liu, Wei He, Xuhao Pan, Xudong Rao, Tao Wei, Wei Chen
•
Feb 25, 2025
•
5
2
AAD-LLM: Neurale Aandacht-Gestuurde Auditieve Scène Interpretatie
AAD-LLM: Neural Attention-Driven Auditory Scene Understanding
Xilin Jiang, Sukru Samet Dindar, Vishal Choudhari, Stephan Bickel, Ashesh Mehta, Guy M McKhann, Adeen Flinker, Daniel Friedman, Nima Mesgarani
•
Feb 24, 2025
•
5
3
Een Overzicht van Grote Taalmodellen voor Statistici
An Overview of Large Language Models for Statisticians
Wenlong Ji, Weizhe Yuan, Emily Getzen, Kyunghyun Cho, Michael I. Jordan, Song Mei, Jason E Weston, Weijie J. Su, Jing Xu, Linjun Zhang
•
Feb 25, 2025
•
4
2
LaTIM: Het meten van latente token-tot-token interacties in Mamba-modellen
LaTIM: Measuring Latent Token-to-Token Interactions in Mamba Models
Hugo Pitorro, Marcos Treviso
•
Feb 21, 2025
•
4
2
Shakti-VLMs: Schaalbare Vision-Taalmodellen voor Enterprise AI
Shakti-VLMs: Scalable Vision-Language Models for Enterprise AI
Syed Abdul Gaffar Shakhadri, Kruthika KR, Kartik Basavaraj Angadi
•
Feb 24, 2025
•
3
2
WiCkeD: Een eenvoudige methode om multiple choice-benchmarks uitdagender te maken
WiCkeD: A Simple Method to Make Multiple Choice Benchmarks More Challenging
Ahmed Elhady, Eneko Agirre, Mikel Artetxe
•
Feb 25, 2025
•
2
2
Het schalen van LLM-pre-training met een vocabulaire-curriculum
Scaling LLM Pre-training with Vocabulary Curriculum
Fangyuan Yu
•
Feb 25, 2025
•
1
2