ChatPaper.ai
Menü öffnen
Startseite
Tägliche Publikationen
arXiv
HuggingFace
Preise
Konto
Arbeitsbereich
🇩🇪
Deutsch
Loading...
•
•
•
•
•
•
•
•
•
•
KI-Forschungspapiere Täglich
Täglich kuratierte KI-Forschungspapiere mit Übersetzungen
February 19th, 2025
Sie nutzen die Repräsentationskapazität von Transformern nicht vollständig aus.
You Do Not Fully Utilize Transformer's Representation Capacity
Gleb Gerasimov, Yaroslav Aksenov, Nikita Balagansky, Viacheslav Sinii, Daniil Gavrilov
•
Feb 13, 2025
•
38
3
Ist das Ihre endgültige Antwort? Testzeit-Skalierung verbessert die selektive Fragebeantwortung
Is That Your Final Answer? Test-Time Scaling Improves Selective Question Answering
William Jurayj, Jeffrey Cheng, Benjamin Van Durme
•
Feb 19, 2025
•
3
1
MUDDFormer: Überwindung residualer Engpässe in Transformatoren durch mehrwegige dynamische dichte Verbindungen
MUDDFormer: Breaking Residual Bottlenecks in Transformers via Multiway Dynamic Dense Connections
Da Xiao, Qingye Meng, Shengping Li, Xingyuan Yuan
•
Feb 13, 2025
•
12
2
Magma: Ein Grundlagenmodell für multimodale KI-Agenten
Magma: A Foundation Model for Multimodal AI Agents
Jianwei Yang, Reuben Tan, Qianhui Wu, Ruijie Zheng, Baolin Peng, Yongyuan Liang, Yu Gu, Mu Cai, Seonghyeon Ye, Joel Jang, Yuquan Deng, Lars Liden, Jianfeng Gao
•
Feb 18, 2025
•
58
6
PAFT: Prompt-unabhängiges Feinabstimmen
PAFT: Prompt-Agnostic Fine-Tuning
Chenxing Wei, Yao Shu, Mingwen Ou, Ying Tiffany He, Fei Richard Yu
•
Feb 18, 2025
•
15
8
Kontinuierliches Diffusionsmodell für Sprachmodellierung
Continuous Diffusion Model for Language Modeling
Jaehyeong Jo, Sung Ju Hwang
•
Feb 17, 2025
•
54
4
Die verborgenen Risiken großer Reasoning-Modelle: Eine Sicherheitsbewertung von R1
The Hidden Risks of Large Reasoning Models: A Safety Assessment of R1
Kaiwen Zhou, Chengzhi Liu, Xuandong Zhao, Shreedhar Jangam, Jayanth Srinivasa, Gaowen Liu, Dawn Song, Xin Eric Wang
•
Feb 18, 2025
•
7
2
Perovskite-LLM: Wissensbasierte Large Language Models für die Forschung an Perovskit-Solarzellen
Perovskite-LLM: Knowledge-Enhanced Large Language Models for Perovskite Solar Cell Research
Xiang Liu, Penglei Sun, Shuyan Chen, Longhan Zhang, Peijie Dong, Huajie You, Yongqi Zhang, Chang Yan, Xiaowen Chu, Tong-yi Zhang
•
Feb 18, 2025
•
2
2
Nutzung von Vision-Modellen für die Zeitreihenanalyse: Ein Überblick
Harnessing Vision Models for Time Series Analysis: A Survey
Jingchao Ni, Ziming Zhao, ChengAo Shen, Hanghang Tong, Dongjin Song, Wei Cheng, Dongsheng Luo, Haifeng Chen
•
Feb 13, 2025
•
2
2
Phantom: Subjektkonsistente Videogenerierung durch cross-modale Ausrichtung
Phantom: Subject-consistent video generation via cross-modal alignment
Lijie Liu, Tianxiang Ma, Bingchuan Li, Zhuowei Chen, Jiawei Liu, Qian He, Xinglong Wu
•
Feb 16, 2025
•
60
3
Erneute Betrachtung der Testzeit-Skalierung von o1-ähnlichen Modellen: Verfügen sie wirklich über Testzeit-Skalierungsfähigkeiten?
Revisiting the Test-Time Scaling of o1-like Models: Do they Truly Possess Test-Time Scaling Capabilities?
Zhiyuan Zeng, Qinyuan Cheng, Zhangyue Yin, Yunhua Zhou, Xipeng Qiu
•
Feb 17, 2025
•
16
2
YOLOv12: Aufmerksamkeitszentrierte Echtzeit-Objekterkennungssysteme
YOLOv12: Attention-Centric Real-Time Object Detectors
Yunjie Tian, Qixiang Ye, David Doermann
•
Feb 18, 2025
•
10
2
OctoTools: Ein agentenbasiertes Framework mit erweiterbaren Werkzeugen für komplexe Denkprozesse
OctoTools: An Agentic Framework with Extensible Tools for Complex Reasoning
Pan Lu, Bowen Chen, Sheng Liu, Rahul Thapa, Joseph Boen, James Zou
•
Feb 16, 2025
•
17
3
Skalierung autonomer Agenten durch automatische Belohnungsmodellierung und Planung
Scaling Autonomous Agents via Automatic Reward Modeling And Planning
Zhenfang Chen, Delin Chen, Rui Sun, Wenjun Liu, Chuang Gan
•
Feb 17, 2025
•
2
2
Soundwave: Weniger ist mehr für die Sprach-Text-Ausrichtung in LLMs
Soundwave: Less is More for Speech-Text Alignment in LLMs
Yuhao Zhang, Zhiheng Liu, Fan Bu, Ruiyu Zhang, Benyou Wang, Haizhou Li
•
Feb 18, 2025
•
86
4
FLAG-Trader: Fusion LLM-Agent mit gradientenbasierter Verstärkungslernmethode für den Finanzhandel
FLAG-Trader: Fusion LLM-Agent with Gradient-based Reinforcement Learning for Financial Trading
Guojun Xiong, Zhiyang Deng, Keyi Wang, Yupeng Cao, Haohang Li, Yangyang Yu, Xueqing Peng, Mingquan Lin, Kaleb E Smith, Xiao-Yang Liu, Jimin Huang, Sophia Ananiadou, Qianqian Xie
•
Feb 17, 2025
•
36
2
SoFar: Sprachbasierte Orientierung verbindet räumliches Denken und Objektmanipulation
SoFar: Language-Grounded Orientation Bridges Spatial Reasoning and Object Manipulation
Zekun Qi, Wenyao Zhang, Yufei Ding, Runpei Dong, Xinqiang Yu, Jingwen Li, Lingyun Xu, Baoyu Li, Xialin He, Guofan Fan, Jiazhao Zhang, Jiawei He, Jiayuan Gu, Xin Jin, Kaisheng Ma, Zhizheng Zhang, He Wang, Li Yi
•
Feb 18, 2025
•
30
2
Mehrsprachiger Encoder weiß mehr, als Sie denken: Gemeinsame Gewichte für das Pretraining von extrem ressourcenarmen Sprachen
Multilingual Encoder Knows more than You Realize: Shared Weights Pretraining for Extremely Low-Resource Languages
Zeli Su, Ziyin Zhang, Guixian Xu, Jianing Liu, XU Han, Ting Zhang, Yushuang Dong
•
Feb 15, 2025
•
2
2
RealSyn: Ein effektives und skalierbares Paradigma für die multimodale, verschachtelte Dokumententransformation
RealSyn: An Effective and Scalable Multimodal Interleaved Document Transformation Paradigm
Tiancheng Gu, Kaicheng Yang, Chaoyi Zhang, Yin Xie, Xiang An, Ziyong Feng, Dongnan Liu, Weidong Cai, Jiankang Deng
•
Feb 18, 2025
•
16
2
Vorabtraining autoregressiver Roboter-Modelle mit 4D-Darstellungen
Pre-training Auto-regressive Robotic Models with 4D Representations
Dantong Niu, Yuvan Sharma, Haoru Xue, Giscard Biamby, Junyi Zhang, Ziteng Ji, Trevor Darrell, Roei Herzig
•
Feb 18, 2025
•
5
2
FinMTEB: Finanz-Massiv-Text-Einbettungs-Benchmark
FinMTEB: Finance Massive Text Embedding Benchmark
Yixuan Tang, Yi Yang
•
Feb 16, 2025
•
3
2
Atom der Gedanken für Markov-LLM-Testzeit-Skalierung
Atom of Thoughts for Markov LLM Test-Time Scaling
Fengwei Teng, Zhaoyang Yu, Quan Shi, Jiayi Zhang, Chenglin Wu, Yuyu Luo
•
Feb 17, 2025
•
16
4
Multimodal Mamba: Ein decoder-exklusives multimodales Zustandsraummodell durch quadratische zu lineare Destillation
Multimodal Mamba: Decoder-only Multimodal State Space Model via Quadratic to Linear Distillation
Bencheng Liao, Hongyuan Tao, Qian Zhang, Tianheng Cheng, Yingyue Li, Haoran Yin, Wenyu Liu, Xinggang Wang
•
Feb 18, 2025
•
38
2
1568 Token in einen einzigen Vektor packen und zurück: Erforschung der Grenzen der Einbettungsraumkapazität
Cramming 1568 Tokens into a Single Vector and Back Again: Exploring the Limits of Embedding Space Capacity
Yuri Kuratov, Mikhail Arkhipov, Aydar Bulatov, Mikhail Burtsev
•
Feb 18, 2025
•
70
4
SafeRoute: Adaptive Modellauswahl für effiziente und präzise Sicherheitsbarrieren in großen Sprachmodellen
SafeRoute: Adaptive Model Selection for Efficient and Accurate Safety Guardrails in Large Language Models
Seanie Lee, Dong Bok Lee, Dominik Wagner, Minki Kang, Haebin Seong, Tobias Bocklet, Juho Lee, Sung Ju Hwang
•
Feb 18, 2025
•
28
2
Integration von domänenspezifischem Wissen in große Sprachmodelle: Eine umfassende Übersicht
Injecting Domain-Specific Knowledge into Large Language Models: A Comprehensive Survey
Zirui Song, Bin Yan, Yuhan Liu, Miao Fang, Mingzhe Li, Rui Yan, Xiuying Chen
•
Feb 15, 2025
•
4
2
Text2World: Benchmarking von Large Language Models zur Generierung symbolischer Weltmodelle
Text2World: Benchmarking Large Language Models for Symbolic World Model Generation
Mengkang Hu, Tianxing Chen, Yude Zou, Yuheng Lei, Qiguang Chen, Ming Li, Hongyuan Zhang, Wenqi Shao, Ping Luo
•
Feb 18, 2025
•
13
2
Neubewertung des Lernens vielfältiger menschlicher Präferenzen durch Hauptkomponentenanalyse
Rethinking Diverse Human Preference Learning through Principal Component Analysis
Feng Luo, Rui Yang, Hao Sun, Chunyuan Deng, Jiarui Yao, Jingyan Shen, Huan Zhang, Hanjie Chen
•
Feb 18, 2025
•
38
3
HeadInfer: Speichereffiziente LLM-Inferenz durch kopfweise Auslagerung
HeadInfer: Memory-Efficient LLM Inference by Head-wise Offloading
Cheng Luo, Zefan Cai, Hanshi Sun, Jinqi Xiao, Bo Yuan, Wen Xiao, Junjie Hu, Jiawei Zhao, Beidi Chen, Anima Anandkumar
•
Feb 18, 2025
•
11
2
Crowd Comparative Reasoning: Umfassende Bewertungen für LLM-as-a-Judge ermöglichen
Crowd Comparative Reasoning: Unlocking Comprehensive Evaluations for LLM-as-a-Judge
Qiyuan Zhang, Yufei Wang, Yuxin Jiang, Liangyou Li, Chuhan Wu, Yasheng Wang, Xin Jiang, Lifeng Shang, Ruiming Tang, Fuyuan Lyu, Chen Ma
•
Feb 18, 2025
•
6
2
Flow-of-Options: Diversifizierte und verbesserte LLM-Argumentation durch das Durchdenken von Optionen
Flow-of-Options: Diversified and Improved LLM Reasoning by Thinking Through Options
Lakshmi Nair, Ian Trase, Mark Kim
•
Feb 18, 2025
•
7
3
Eager-Updates für überlappende Kommunikation und Berechnung in DiLoCo
Eager Updates For Overlapped Communication and Computation in DiLoCo
Satyen Kale, Arthur Douillard, Yanislav Donchev
•
Feb 18, 2025
•
7
2
HealthGPT: Ein medizinisches großes Vision-Sprach-Modell zur Vereinheitlichung von Verständnis und Generierung durch heterogene Wissensanpassung
HealthGPT: A Medical Large Vision-Language Model for Unifying Comprehension and Generation via Heterogeneous Knowledge Adaptation
Tianwei Lin, Wenqiao Zhang, Sijing Li, Yuqian Yuan, Binhe Yu, Haoyuan Li, Wanggui He, Hao Jiang, Mengze Li, Xiaohui Song, Siliang Tang, Jun Xiao, Hui Lin, Yueting Zhuang, Beng Chin Ooi
•
Feb 14, 2025
•
10
2