ChatPaper.ai
Menü öffnen
Startseite
Tägliche Publikationen
arXiv
HuggingFace
Preise
Konto
Arbeitsbereich
🇩🇪
Deutsch
Loading...
•
•
•
•
•
•
•
•
•
•
KI-Forschungspapiere Täglich
Täglich kuratierte KI-Forschungspapiere mit Übersetzungen
November 11th, 2024
StdGEN: Semantisch-dekomponierte 3D-Charaktergenerierung aus Einzelbildern
StdGEN: Semantic-Decomposed 3D Character Generation from Single Images
Yuze He, Yanning Zhou, Wang Zhao, Zhongkai Wu, Kaiwen Xiao, Wei Yang, Yong-Jin Liu, Xiao Han
•
Nov 8, 2024
•
14
3
Sprachmodelle sind verborgene Denker: Enthüllung latenter Denkfähigkeiten durch Selbstbelohnung.
Language Models are Hidden Reasoners: Unlocking Latent Reasoning Capabilities via Self-Rewarding
Haolin Chen, Yihao Feng, Zuxin Liu, Weiran Yao, Akshara Prabhakar, Shelby Heinecke, Ricky Ho, Phil Mui, Silvio Savarese, Caiming Xiong, Huan Wang
•
Nov 6, 2024
•
36
2
RaVL: Entdeckung und Minderung von irreführenden Korrelationen in feinabgestimmten Seh-Sprach-Modellen
RaVL: Discovering and Mitigating Spurious Correlations in Fine-Tuned Vision-Language Models
Maya Varma, Jean-Benoit Delbrouck, Zhihong Chen, Akshay Chaudhari, Curtis Langlotz
•
Nov 6, 2024
•
5
2
Die Balance zwischen Pipeline-Parallelität und Vokabular-Parallelität
Balancing Pipeline Parallelism with Vocabulary Parallelism
Man Tsung Yeung, Penghui Qi, Min Lin, Xinyi Wan
•
Nov 8, 2024
•
20
3
Parameter-effizientes Feintuning großer Sprachmodelle für die Generierung von Modultests: Eine empirische Studie
Parameter-Efficient Fine-Tuning of Large Language Models for Unit Test Generation: An Empirical Study
André Storhaug, Jingyue Li
•
Nov 4, 2024
•
10
3
DELIFT: Daten-effizientes Sprachmodell-Instruktionsfeinabstimmung
DELIFT: Data Efficient Language model Instruction Fine Tuning
Ishika Agarwal, Krishna Killamsetty, Lucian Popa, Marina Danilevksy
•
Nov 7, 2024
•
11
3
CAD-MLLM: Vereinigung der multimodalitätsbedingten CAD-Generierung mit MLLM
CAD-MLLM: Unifying Multimodality-Conditioned CAD Generation With MLLM
Jingwei Xu, Chenyu Wang, Zibo Zhao, Wen Liu, Yi Ma, Shenghua Gao
•
Nov 7, 2024
•
10
8
LLM2CLIP: Leistungsstarkes Sprachmodell erschließt reichhaltigere visuelle Darstellung
LLM2CLIP: Powerful Language Model Unlock Richer Visual Representation
Weiquan Huang, Aoqi Wu, Yifan Yang, Xufang Luo, Yuqing Yang, Liang Hu, Qi Dai, Xiyang Dai, Dongdong Chen, Chong Luo, Lili Qiu
•
Nov 7, 2024
•
40
2
Verbesserung der Erkennung von technischen Schulden im Java-Quellcode mit einem angereicherten Datensatz
Improving the detection of technical debt in Java source code with an enriched dataset
Nam Le Hai, Anh M. T. Bui, Phuong T. Nguyen, Davide Di Ruscio, Rick Kazman
•
Nov 8, 2024
•
2
3
Die semantische Hub-Hypothese: Sprachmodelle teilen semantische Repräsentationen über Sprachen und Modalitäten hinweg.
The Semantic Hub Hypothesis: Language Models Share Semantic Representations Across Languages and Modalities
Zhaofeng Wu, Xinyan Velocity Yu, Dani Yogatama, Jiasen Lu, Yoon Kim
•
Nov 7, 2024
•
6
2