ChatPaper.ai
Menü öffnen
Startseite
Tägliche Publikationen
arXiv
HuggingFace
Preise
Konto
Arbeitsbereich
🇩🇪
Deutsch
Loading...
•
•
•
•
•
•
•
•
•
•
KI-Forschungspapiere Täglich
Täglich kuratierte KI-Forschungspapiere mit Übersetzungen
October 11th, 2024
Datenberater: Dynamische Datenkuratierung zur Sicherheitsausrichtung großer Sprachmodelle
Data Advisor: Dynamic Data Curation for Safety Alignment of Large Language Models
Fei Wang, Ninareh Mehrabi, Palash Goyal, Rahul Gupta, Kai-Wei Chang, Aram Galstyan
•
Oct 7, 2024
•
3
2
DART: Rauschunterdrückender autoregressiver Transformer für skalierbare Text-zu-Bild-Generierung
DART: Denoising Autoregressive Transformer for Scalable Text-to-Image Generation
Jiatao Gu, Yuyang Wang, Yizhe Zhang, Qihang Zhang, Dinghuai Zhang, Navdeep Jaitly, Josh Susskind, Shuangfei Zhai
•
Oct 10, 2024
•
25
2
Vektor-ICL: Lernen im Kontext mit kontinuierlichen Vektorrepräsentationen
Vector-ICL: In-context Learning with Continuous Vector Representations
Yufan Zhuang, Chandan Singh, Liyuan Liu, Jingbo Shang, Jianfeng Gao
•
Oct 8, 2024
•
3
3
Benchmarking der generativen Workflow-Erstellung
Benchmarking Agentic Workflow Generation
Shuofei Qiao, Runnan Fang, Zhisong Qiu, Xiaobin Wang, Ningyu Zhang, Yong Jiang, Pengjun Xie, Fei Huang, Huajun Chen
•
Oct 10, 2024
•
27
2
Alles Überall Alles auf Einmal: LLMs können Mehrere Aufgaben im Überlagerungszustand Lernen
Everything Everywhere All at Once: LLMs can In-Context Learn Multiple Tasks in Superposition
Zheyang Xiong, Ziyang Cai, John Cooper, Albert Ge, Vasilis Papageorgiou, Zack Sifakis, Angeliki Giannou, Ziqian Lin, Liu Yang, Saurabh Agarwal, Grigorios G Chrysos, Samet Oymak, Kangwook Lee, Dimitris Papailiopoulos
•
Oct 8, 2024
•
11
2
DICE: Diskrete Inversion zur Steuerbaren Bearbeitung für Multinomial Diffusion und Maskierte Generative Modelle
DICE: Discrete Inversion Enabling Controllable Editing for Multinomial Diffusion and Masked Generative Models
Xiaoxiao He, Ligong Han, Quan Dao, Song Wen, Minhao Bai, Di Liu, Han Zhang, Martin Renqiang Min, Felix Juefei-Xu, Chaowei Tan, Bo Liu, Kang Li, Hongdong Li, Junzhou Huang, Faez Ahmed, Akash Srivastava, Dimitris Metaxas
•
Oct 10, 2024
•
19
2
Erhaltung der multimodalen Fähigkeiten von vortrainierten VLMs zur Verbesserung der visuell-linguistischen Kompositionsfähigkeit.
Preserving Multi-Modal Capabilities of Pre-trained VLMs for Improving Vision-Linguistic Compositionality
Youngtaek Oh, Jae Won Cho, Dong-Jin Kim, In So Kweon, Junmo Kim
•
Oct 7, 2024
•
11
3
Optima: Optimierung von Effektivität und Effizienz für ein auf LLM basierendes Multi-Agenten-System
Optima: Optimizing Effectiveness and Efficiency for LLM-Based Multi-Agent System
Weize Chen, Jiarui Yuan, Chen Qian, Cheng Yang, Zhiyuan Liu, Maosong Sun
•
Oct 10, 2024
•
8
2
Rektifizierte Diffusion: Geradlinigkeit ist nicht erforderlich im rektifizierten Fluss.
Rectified Diffusion: Straightness Is Not Your Need in Rectified Flow
Fu-Yun Wang, Ling Yang, Zhaoyang Huang, Mengdi Wang, Hongsheng Li
•
Oct 9, 2024
•
18
3
LPZero: Sprachmodell Nullkosten-Proxy-Suche von Null
LPZero: Language Model Zero-cost Proxy Search from Zero
Peijie Dong, Lujun Li, Xiang Liu, Zhenheng Tang, Xuebo Liu, Qiang Wang, Xiaowen Chu
•
Oct 7, 2024
•
2
2
MLLM als Retriever: Interaktiv lernen von multimodalem Retrieval für verkörperte Agenten
MLLM as Retriever: Interactively Learning Multimodal Retrieval for Embodied Agents
Junpeng Yue, Xinru Xu, Börje F. Karlsson, Zongqing Lu
•
Oct 4, 2024
•
37
2
MathCoder2: Besseres mathematisches Denken durch fortgesetztes Vortraining auf modellübersetztem mathematischem Code
MathCoder2: Better Math Reasoning from Continued Pretraining on Model-translated Mathematical Code
Zimu Lu, Aojun Zhou, Ke Wang, Houxing Ren, Weikang Shi, Junting Pan, Mingjie Zhan, Hongsheng Li
•
Oct 10, 2024
•
47
2
Progressive autoregressive Video-Diffusionsmodelle
Progressive Autoregressive Video Diffusion Models
Desai Xie, Zhan Xu, Yicong Hong, Hao Tan, Difan Liu, Feng Liu, Arie Kaufman, Yang Zhou
•
Oct 10, 2024
•
16
4
Betrügerische automatische LLM-Benchmarks: Nullmodelle erzielen hohe Gewinnraten.
Cheating Automatic LLM Benchmarks: Null Models Achieve High Win Rates
Xiaosen Zheng, Tianyu Pang, Chao Du, Qian Liu, Jing Jiang, Min Lin
•
Oct 9, 2024
•
7
2
Zebra: Kontextuelles und generatives Pretraining zur Lösung parametrischer partieller Differentialgleichungen
Zebra: In-Context and Generative Pretraining for Solving Parametric PDEs
Louis Serrano, Armand Kassaï Koupaï, Thomas X Wang, Pierre Erbacher, Patrick Gallinari
•
Oct 4, 2024
•
2
2
Faszinierende Eigenschaften großer Sprach- und Bildmodelle
Intriguing Properties of Large Language and Vision Models
Young-Jun Lee, Byungsoo Ko, Han-Gyu Kim, Yechan Hwang, Ho-Jin Choi
•
Oct 7, 2024
•
16
4
Agent S: Ein offenes agentisches Framework, das Computer wie ein Mensch nutzt.
Agent S: An Open Agentic Framework that Uses Computers Like a Human
Saaket Agashe, Jiuzhou Han, Shuyu Gan, Jiachen Yang, Ang Li, Xin Eric Wang
•
Oct 10, 2024
•
24
2
Emergente Eigenschaften mit wiederholten Beispielen
Emergent properties with repeated examples
François Charton, Julia Kempe
•
Oct 9, 2024
•
8
3
Auf dem Weg zur Selbstverbesserung von LLMs durch MCTS: Nutzung schrittweisen Wissens mit Curriculum-Präferenzlernen
Towards Self-Improvement of LLMs via MCTS: Leveraging Stepwise Knowledge with Curriculum Preference Learning
Xiyao Wang, Linfeng Song, Ye Tian, Dian Yu, Baolin Peng, Haitao Mi, Furong Huang, Dong Yu
•
Oct 9, 2024
•
10
2
PrefixQuant: Statische Quantisierung schlägt dynamische durch vorab festgelegte Ausreißer in LLMs.
PrefixQuant: Static Quantization Beats Dynamic through Prefixed Outliers in LLMs
Mengzhao Chen, Yi Liu, Jiahao Wang, Yi Bin, Wenqi Shao, Ping Luo
•
Oct 7, 2024
•
31
2
WALL-E: Weltweite Ausrichtung durch Regel-Lernen verbessert weltmodellbasierte LLM-Agenten
WALL-E: World Alignment by Rule Learning Improves World Model-based LLM Agents
Siyu Zhou, Tianyi Zhou, Yijun Yang, Guodong Long, Deheng Ye, Jing Jiang, Chengqi Zhang
•
Oct 9, 2024
•
51
3
SFTMix: Verbesserung der Feinabstimmung von Sprachmodellanweisungen mit der Mixup-Methode
SFTMix: Elevating Language Model Instruction Tuning with Mixup Recipe
Yuxin Xiao, Shujian Zhang, Wenxuan Zhou, Marzyeh Ghassemi, Sanqiang Zhao
•
Oct 7, 2024
•
8
2
Skalierung Ihrer Kernel: Großes Kernel-Design in ConvNets hin zu universellen Repräsentationen
Scaling Up Your Kernels: Large Kernel Design in ConvNets towards Universal Representations
Yiyuan Zhang, Xiaohan Ding, Xiangyu Yue
•
Oct 10, 2024
•
8
2
Beschleunigte Präferenzoptimierung für die Ausrichtung großer Sprachmodell.
Accelerated Preference Optimization for Large Language Model Alignment
Jiafan He, Huizhuo Yuan, Quanquan Gu
•
Oct 8, 2024
•
5
2
GLOV: Geführte große Sprachmodelle als implizite Optimierer für die Vision
GLOV: Guided Large Language Models as Implicit Optimizers for Vision Language Models
M. Jehanzeb Mirza, Mengjie Zhao, Zhuoyuan Mao, Sivan Doveh, Wei Lin, Paul Gavrikov, Michael Dorkenwald, Shiqi Yang, Saurav Jha, Hiromi Wakaki, Yuki Mitsufuji, Horst Possegger, Rogerio Feris, Leonid Karlinsky, James Glass
•
Oct 8, 2024
•
16
2
MotionGS: Erforschung der expliziten Bewegungssteuerung für verformbares 3D-Gaußsches Splatting.
MotionGS: Exploring Explicit Motion Guidance for Deformable 3D Gaussian Splatting
Ruijie Zhu, Yanzhe Liang, Hanzhi Chang, Jiacheng Deng, Jiahao Lu, Wenfei Yang, Tianzhu Zhang, Yongdong Zhang
•
Oct 10, 2024
•
3
2