ChatPaper.aiChatPaper.ai
Startseite

arXiv

HuggingFace

PreiseKontoArbeitsbereich

•
•

•
•

•
•

•
•

•
•

Footer

Company name

ChatPaper.ai: Your advanced AI reading assistant.

Contact us: [email protected]

X (Twitter)

Products

  • AI Search
  • AI Mind Map
  • Arxiv Summary
  • Huggingface Summary

Support

  • FAQ
  • Contact

Company

  • Blog
  • Privacy Policy
  • Terms of Service

Available Languages

  • 🇬🇧English
  • 🇨🇳中文简体
  • 🇭🇰繁體中文
  • 🇯🇵日本語
  • 🇰🇷한국어
  • 🇩🇪Deutsch
  • 🇫🇷Français
  • 🇷🇺Русский
  • 🇪🇸Español

© 2025 chatpaper.ai All rights reserved.

KI-Forschungspapiere Täglich

Täglich kuratierte KI-Forschungspapiere mit Übersetzungen

Meteor: Mamba-basiertes Durchsuchen der Begründung für große Sprach- und Bildmodelle
Meteor: Mamba-based Traversal of Rationale for Large Language and Vision Models

Byung-Kwan Lee, Chae Won Kim, Beomchan Park, Yong Man Ro•May 24, 2024•566

ConvLLaVA: Hierarchische Backbones als visueller Encoder für große multimodale Modelle
ConvLLaVA: Hierarchical Backbones as Visual Encoder for Large Multimodal Models

Chunjiang Ge, Sijie Cheng, Ziming Wang, Jiale Yuan, Yuan Gao, Jun Song, Shiji Song, Gao Huang, Bo Zheng•May 24, 2024•477

Grokked-Transformer sind implizite Schlussfolgerer: Eine mechanistische Reise an den Rand der Verallgemeinerung.
Grokked Transformers are Implicit Reasoners: A Mechanistic Journey to the Edge of Generalization

Boshi Wang, Xiang Yue, Yu Su, Huan Sun•May 23, 2024•421

Abschnitt 23: Offene Gewichtungen zur Förderung des weiteren Fortschritts in der Mehrsprachigkeit
Aya 23: Open Weight Releases to Further Multilingual Progress

Viraat Aryabumi, John Dang, Dwarak Talupuru, Saurabh Dash, David Cairuz, Hangyu Lin, Bharat Venkitesh, Madeline Smith, Kelly Marchisio, Sebastian Ruder, Acyr Locatelli, Julia Kreutzer, Nick Frosst, Phil Blunsom, Marzieh Fadaee, Ahmet Üstün, Sara Hooker•May 23, 2024•321

Das Stapeln Ihrer Transformer: Eine nähere Betrachtung des Modellwachstums für effizientes LLM-Vortraining.
Stacking Your Transformers: A Closer Look at Model Growth for Efficient LLM Pre-Training

Wenyu Du, Tongxu Luo, Zihan Qiu, Zeyu Huang, Yikang Shen, Reynold Cheng, Yike Guo, Jie Fu•May 24, 2024•301

Der Weg mit weniger Zeitplanung
The Road Less Scheduled

Aaron Defazio, Xingyu, Yang, Harsh Mehta, Konstantin Mishchenko, Ahmed Khaled, Ashok Cutkosky•May 24, 2024•287

AutoCoder: Verbesserung des Code Large Language Model mit AIEV-Instruct
AutoCoder: Enhancing Code Large Language Model with AIEV-Instruct

Bin Lei, Yuchen Li, Qiuwu Chen•May 23, 2024•289

CraftsMan: Hochauflösende Gittergenerierung mit 3D-Native-Generierung und interaktivem Geometrie-Verfeinerer
CraftsMan: High-fidelity Mesh Generation with 3D Native Generation and Interactive Geometry Refiner

Weiyu Li, Jiarui Liu, Rui Chen, Yixun Liang, Xuelin Chen, Ping Tan, Xiaoxiao Long•May 23, 2024•202

Automatische Datenkuratierung für selbstüberwachtes Lernen: Ein auf Clustering basierender Ansatz
Automatic Data Curation for Self-Supervised Learning: A Clustering-Based Approach

Huy V. Vo, Vasil Khalidov, Timothée Darcet, Théo Moutakanni, Nikita Smetanin, Marc Szafraniec, Hugo Touvron, Camille Couprie, Maxime Oquab, Armand Joulin, Hervé Jégou, Patrick Labatut, Piotr Bojanowski•May 24, 2024•180

iVideoGPT: Interaktive VideoGPTs sind skalierbare Weltmodelle.
iVideoGPT: Interactive VideoGPTs are Scalable World Models

Jialong Wu, Shaofeng Yin, Ningya Feng, Xu He, Dong Li, Jianye Hao, Mingsheng Long•May 24, 2024•174

Rauschunterdrückendes LM: Erweiterung der Grenzen von Fehlerkorrekturmodellen für die Spracherkennung
Denoising LM: Pushing the Limits of Error Correction Models for Speech Recognition

Zijin Gu, Tatiana Likhomanenko, He Bai, Erik McDermott, Ronan Collobert, Navdeep Jaitly•May 24, 2024•170

Effiziente Datenmischung: Ein bivariates Skalengesetz für das Vortrainieren von Sprachmodellen
Data Mixing Made Efficient: A Bivariate Scaling Law for Language Model Pretraining

Ce Ge, Zhijian Ma, Daoyuan Chen, Yaliang Li, Bolin Ding•May 23, 2024•160

HDR-GS: Effiziente High Dynamic Range Novel View Synthese mit 1000-facher Geschwindigkeit durch Gaussisches Splatting
HDR-GS: Efficient High Dynamic Range Novel View Synthesis at 1000x Speed via Gaussian Splatting

Yuanhao Cai, Zihao Xiao, Yixun Liang, Yulun Zhang, Xiaokang Yang, Yaoyao Liu, Alan Yuille•May 24, 2024•80