ChatPaper.aiChatPaper.ai
Startseite

arXiv

HuggingFace

PreiseKontoArbeitsbereich

•
•

•
•

•
•

•
•

•
•

Footer

Company name

ChatPaper.ai: Your advanced AI reading assistant.

Contact us: [email protected]

X (Twitter)

Products

  • AI Search
  • AI Mind Map
  • Arxiv Summary
  • Huggingface Summary

Support

  • FAQ
  • Contact

Company

  • Blog
  • Privacy Policy
  • Terms of Service

Available Languages

  • 🇬🇧English
  • 🇨🇳中文简体
  • 🇭🇰繁體中文
  • 🇯🇵日本語
  • 🇰🇷한국어
  • 🇩🇪Deutsch
  • 🇫🇷Français
  • 🇷🇺Русский
  • 🇪🇸Español

© 2025 chatpaper.ai All rights reserved.

KI-Forschungspapiere Täglich

Täglich kuratierte KI-Forschungspapiere mit Übersetzungen

DeepSeek-Coder-V2: Überwindung der Barriere geschlossener Modelle in der Code-Intelligenz
DeepSeek-Coder-V2: Breaking the Barrier of Closed-Source Models in Code Intelligence

DeepSeek-AI, Qihao Zhu, Daya Guo, Zhihong Shao, Dejian Yang, Peiyi Wang, Runxin Xu, Y. Wu, Yukun Li, Huazuo Gao, Shirong Ma, Wangding Zeng, Xiao Bi, Zihui Gu, Hanwei Xu, Damai Dai, Kai Dong, Liyue Zhang, Yishi Piao, Zhibin Gou, Zhenda Xie, Zhewen Hao, Bingxuan Wang, Junxiao Song, Deli Chen, Xin Xie, Kang Guan, Yuxiang You, Aixin Liu, Qiushi Du, Wenjun Gao, Xuan Lu, Qinyu Chen, Yaohui Wang, Chengqi Deng, Jiashi Li, Chenggang Zhao, Chong Ruan, Fuli Luo, Wenfeng Liang•Jun 17, 2024•643

Tiefe überall: Verbesserung der monokularen Tiefenschätzung in 360-Grad-Ansichten durch Perspektiven-Destillation und Erweiterung mit unbeschrifteten Daten
Depth Anywhere: Enhancing 360 Monocular Depth Estimation via Perspective Distillation and Unlabeled Data Augmentation

Ning-Hsu Wang, Yu-Lun Liu•Jun 18, 2024•512

Bootstrapping von Sprachmodellen mit DPO Impliziten Belohnungen
Bootstrapping Language Models with DPO Implicit Rewards

Changyu Chen, Zichen Liu, Chao Du, Tianyu Pang, Qian Liu, Arunesh Sinha, Pradeep Varakantham, Min Lin•Jun 14, 2024•411

TroL: Traversieren von Schichten für große Sprach- und Bildmodelle
TroL: Traversal of Layers for Large Language and Vision Models

Byung-Kwan Lee, Sangyun Chung, Chae Won Kim, Beomchan Park, Yong Man Ro•Jun 18, 2024•362

ChatGLM: Eine Familie großer Sprachmodelle von GLM-130B bis GLM-4 Alle Tools
ChatGLM: A Family of Large Language Models from GLM-130B to GLM-4 All Tools

Team GLM, Aohan Zeng, Bin Xu, Bowen Wang, Chenhui Zhang, Da Yin, Diego Rojas, Guanyu Feng, Hanlin Zhao, Hanyu Lai, Hao Yu, Hongning Wang, Jiadai Sun, Jiajie Zhang, Jiale Cheng, Jiayi Gui, Jie Tang, Jing Zhang, Juanzi Li, Lei Zhao, Lindong Wu, Lucen Zhong, Mingdao Liu, Minlie Huang, Peng Zhang, Qinkai Zheng, Rui Lu, Shuaiqi Duan, Shudan Zhang, Shulin Cao, Shuxun Yang, Weng Lam Tam, Wenyi Zhao, Xiao Liu, Xiao Xia, Xiaohan Zhang, Xiaotao Gu, Xin Lv, Xinghan Liu, Xinyi Liu, Xinyue Yang, Xixuan Song, Xunkai Zhang, Yifan An, Yifan Xu, Yilin Niu, Yuantao Yang, Yueyan Li, Yushi Bai, Yuxiao Dong, Zehan Qi, Zhaoyu Wang, Zhen Yang, Zhengxiao Du, Zhenyu Hou, Zihan Wang•Jun 18, 2024•332

VoCo-LLaMA: Auf dem Weg zur Bildkompression mit großen Sprachmodellen
VoCo-LLaMA: Towards Vision Compression with Large Language Models

Xubing Ye, Yukang Gan, Xiaoke Huang, Yixiao Ge, Ying Shan, Yansong Tang•Jun 18, 2024•3210

AgileCoder: Dynamische kollaborative Agenten für die Softwareentwicklung basierend auf der agilen Methodik
AgileCoder: Dynamic Collaborative Agents for Software Development based on Agile Methodology

Minh Huynh Nguyen, Thang Phan Chau, Phong X. Nguyen, Nghi D. Q. Bui•Jun 16, 2024•282

Von RAGs zu reichen Parametern: Untersuchung, wie Sprachmodelle externes Wissen gegenüber parametrischen Informationen für faktische Anfragen nutzen.
From RAGs to rich parameters: Probing how language models utilize external knowledge over parametric information for factual queries

Hitesh Wadhwa, Rahul Seetharaman, Somyaa Aggarwal, Reshmi Ghosh, Samyadeep Basu, Soundararajan Srinivasan, Wenlong Zhao, Shreyas Chaudhari, Ehsan Aghazadeh•Jun 18, 2024•212

Über den Antwort hinaus lernen: Schulung von Sprachmodellen mit Reflexion für mathematisches Denken
Learn Beyond The Answer: Training Language Models with Reflection for Mathematical Reasoning

Zhihan Zhang, Zhenwen Liang, Wenhao Yu, Dian Yu, Mengzhao Jia, Dong Yu, Meng Jiang•Jun 17, 2024•191

SafeInfer: Kontextadaptive Dekodierungszeit-Sicherheitsausrichtung für große Sprachmodelle
SafeInfer: Context Adaptive Decoding Time Safety Alignment for Large Language Models

Somnath Banerjee, Soham Tripathy, Sayan Layek, Shanu Kumar, Animesh Mukherjee, Rima Hazra•Jun 18, 2024•163

RepLiQA: Ein Frage-Antwort-Datensatz zur Bewertung von LLMs anhand von ungesehenem Referenzinhalt
RepLiQA: A Question-Answering Dataset for Benchmarking LLMs on Unseen Reference Content

Joao Monteiro, Pierre-Andre Noel, Etienne Marcotte, Sai Rajeswar, Valentina Zantedeschi, David Vazquez, Nicolas Chapados, Christopher Pal, Perouz Taslakian•Jun 17, 2024•161

Sicherheitsarithmetik: Ein Rahmenwerk für die Sicherheitsausrichtung von Sprachmodellen zur Testzeit durch Lenkung von Parametern und Aktivierungen
Safety Arithmetic: A Framework for Test-time Safety Alignment of Language Models by Steering Parameters and Activations

Rima Hazra, Sayan Layek, Somnath Banerjee, Soujanya Poria•Jun 17, 2024•164

Tokenisierung reicht nicht aus: Der Fluch der Tokenisierung
Tokenization Falling Short: The Curse of Tokenization

Yekun Chai, Yewei Fang, Qiwei Peng, Xuhong Li•Jun 17, 2024•161

Benchmarking der Multi-Bild-Verarbeitung in Seh- und Sprachmodellen: Wahrnehmung, Wissen, Schlussfolgerung und Mehrfach-Hop-Schlussfolgerung
Benchmarking Multi-Image Understanding in Vision and Language Models: Perception, Knowledge, Reasoning, and Multi-Hop Reasoning

Bingchen Zhao, Yongshuo Zong, Letian Zhang, Timothy Hospedales•Jun 18, 2024•155

OlympicArena: Benchmarking multidisziplinäres kognitives Denken für Superintelligente KI
OlympicArena: Benchmarking Multi-discipline Cognitive Reasoning for Superintelligent AI

Zhen Huang, Zengzhi Wang, Shijie Xia, Xuefeng Li, Haoyang Zou, Ruijie Xu, Run-Ze Fan, Lyumanshan Ye, Ethan Chern, Yixin Ye, Yikai Zhang, Yuqing Yang, Ting Wu, Binjie Wang, Shichao Sun, Yang Xiao, Yiyuan Li, Fan Zhou, Steffi Chern, Yiwei Qin, Yan Ma, Jiadi Su, Yixiu Liu, Yuxiang Zheng, Shaoting Zhang, Dahua Lin, Yu Qiao, Pengfei Liu•Jun 18, 2024•142

HumanSplat: Verallgemeinerbares Single-Image Human Gaussian Splatting mit Strukturprioritäten
HumanSplat: Generalizable Single-Image Human Gaussian Splatting with Structure Priors

Panwang Pan, Zhuo Su, Chenguo Lin, Zhen Fan, Yongjie Zhang, Zeming Li, Tingting Shen, Yadong Mu, Yebin Liu•Jun 18, 2024•121

Groß angelegtes Transfer-Learning für tabellarische Daten mittels Sprachmodellierung
Large Scale Transfer Learning for Tabular Data via Language Modeling

Josh Gardner, Juan C. Perdomo, Ludwig Schmidt•Jun 17, 2024•91

Schätzung von Wissen in großen Sprachmodellen ohne Erzeugung eines einzelnen Tokens.
Estimating Knowledge in Large Language Models Without Generating a Single Token

Daniela Gottesman, Mor Geva•Jun 18, 2024•81

Sprachmodelle sind erstaunlich anfällig für Medikamentennamen in biomedizinischen Benchmarks.
Language Models are Surprisingly Fragile to Drug Names in Biomedical Benchmarks

Jack Gallifant, Shan Chen, Pedro Moreira, Nikolaj Munch, Mingye Gao, Jackson Pond, Leo Anthony Celi, Hugo Aerts, Thomas Hartvigsen, Danielle Bitterman•Jun 17, 2024•81

Nicht alle Aufforderungen sind gleich: Aufforderungsbasiertes Beschneiden von Text-zu-Bild-Diffusionsmodellen
Not All Prompts Are Made Equal: Prompt-based Pruning of Text-to-Image Diffusion Models

Alireza Ganjdanesh, Reza Shirkavand, Shangqian Gao, Heng Huang•Jun 17, 2024•81

Mischung von Skalen: Speichereffiziente Token-adaptive Binarisierung für große Sprachmodelle
Mixture of Scales: Memory-Efficient Token-Adaptive Binarization for Large Language Models

Dongwon Jo, Taesu Kim, Yulhwa Kim, Jae-Joon Kim•Jun 18, 2024•71

BPO: Die Leistungssteigerung des Online-Präferenzlernens durch Einhaltung der Nähe des Verhaltens LLM.
BPO: Supercharging Online Preference Learning by Adhering to the Proximity of Behavior LLM

Wenda Xu, Jiachen Li, William Yang Wang, Lei Li•Jun 18, 2024•71

Von Crowdsourcing-Daten zu hochwertigen Benchmarks: Arena-Hard und BenchBuilder-Pipeline
From Crowdsourced Data to High-Quality Benchmarks: Arena-Hard and BenchBuilder Pipeline

Tianle Li, Wei-Lin Chiang, Evan Frick, Lisa Dunlap, Tianhao Wu, Banghua Zhu, Joseph E. Gonzalez, Ion Stoica•Jun 17, 2024•71

Über: Ein räumlich-zeitliches Video-Anpassungsrahmenwerk für globale und lokale Videobearbeitung
VIA: A Spatiotemporal Video Adaptation Framework for Global and Local Video Editing

Jing Gu, Yuwei Fang, Ivan Skorokhodov, Peter Wonka, Xinya Du, Sergey Tulyakov, Xin Eric Wang•Jun 18, 2024•51

Hierarchische Eingabe-Taxonomie: Ein universeller Bewertungsrahmen für große Sprachmodelle
Hierarchical Prompting Taxonomy: A Universal Evaluation Framework for Large Language Models

Devichand Budagam, Sankalp KJ, Ashutosh Kumar, Vinija Jain, Aman Chadha•Jun 18, 2024•51

Adversariale Angriffe auf multimodale Agenten
Adversarial Attacks on Multimodal Agents

Chen Henry Wu, Jing Yu Koh, Ruslan Salakhutdinov, Daniel Fried, Aditi Raghunathan•Jun 18, 2024•41

Nicht mischbare Diffusion: Beschleunigung des Diffusionstrainings mit Rauschen Zuweisung
Immiscible Diffusion: Accelerating Diffusion Training with Noise Assignment

Yiheng Li, Heyang Jiang, Akio Kodaira, Masayoshi Tomizuka, Kurt Keutzer, Chenfeng Xu•Jun 18, 2024•41

JEN-1 DreamStyler: Individuelles musikalisches Konzeptlernen durch die Feinabstimmung zentraler Parameter.
JEN-1 DreamStyler: Customized Musical Concept Learning via Pivotal Parameters Tuning

Boyu Chen, Peike Li, Yao Yao, Alex Wang•Jun 18, 2024•42

Oberflächenanpassung: Starke Modelle können schwache Modelle bei der Generalisierung von schwach zu stark täuschen.
Super(ficial)-alignment: Strong Models May Deceive Weak Models in Weak-to-Strong Generalization

Wenkai Yang, Shiqi Shen, Guangyao Shen, Zhi Gong, Yankai Lin•Jun 17, 2024•42

Gemisch von Unterräumen in der Anpassung an niedrigrangige Modelle
Mixture-of-Subspaces in Low-Rank Adaptation

Taiqiang Wu, Jiahao Wang, Zhe Zhao, Ngai Wong•Jun 16, 2024•31