ChatPaper.ai
Menü öffnen
Startseite
Tägliche Publikationen
arXiv
HuggingFace
Preise
Konto
Arbeitsbereich
🇩🇪
Deutsch
Loading...
•
•
•
•
•
•
•
•
•
•
KI-Forschungspapiere Täglich
Täglich kuratierte KI-Forschungspapiere mit Übersetzungen
July 16th, 2024
Qwen2 Technischer Bericht
Qwen2 Technical Report
An Yang, Baosong Yang, Binyuan Hui, Bo Zheng, Bowen Yu, Chang Zhou, Chengpeng Li, Chengyuan Li, Dayiheng Liu, Fei Huang, Guanting Dong, Haoran Wei, Huan Lin, Jialong Tang, Jialin Wang, Jian Yang, Jianhong Tu, Jianwei Zhang, Jianxin Ma, Jin Xu, Jingren Zhou, Jinze Bai, Jinzheng He, Junyang Lin, Kai Dang, Keming Lu, Keqin Chen, Kexin Yang, Mei Li, Mingfeng Xue, Na Ni, Pei Zhang, Peng Wang, Ru Peng, Rui Men, Ruize Gao, Runji Lin, Shijie Wang, Shuai Bai, Sinan Tan, Tianhang Zhu, Tianhao Li, Tianyu Liu, Wenbin Ge, Xiaodong Deng, Xiaohuan Zhou, Xingzhang Ren, Xinyu Zhang, Xipin Wei, Xuancheng Ren, Yang Fan, Yang Yao, Yichang Zhang, Yu Wan, Yunfei Chu, Zeyu Cui, Zhenru Zhang, Zhihao Fan
•
Jul 15, 2024
•
163
3
Lernen, um abzulehnen: Zur Minderung von Datenschutzrisiken in LLMs
Learning to Refuse: Towards Mitigating Privacy Risks in LLMs
Zhenhua Liu, Tong Zhu, Chuanyuan Tan, Wenliang Chen
•
Jul 14, 2024
•
32
4
GRUtopia: Traumhafte General Robots in einer Stadt im großen Maßstab
GRUtopia: Dream General Robots in a City at Scale
Hanqing Wang, Jiahe Chen, Wensi Huang, Qingwei Ben, Tai Wang, Boyu Mi, Tao Huang, Siheng Zhao, Yilun Chen, Sizhe Yang, Peizhou Cao, Wenye Yu, Zichao Ye, Jialun Li, Junfeng Long, Zirui Wang, Huiling Wang, Ying Zhao, Zhongying Tu, Yu Qiao, Dahua Lin, Jiangmiao Pang
•
Jul 15, 2024
•
26
2
Das Gute, das Schlechte und das Gierige: Die Bewertung von LLMs sollte die Nichtdeterminiertheit nicht ignorieren.
The Good, The Bad, and The Greedy: Evaluation of LLMs Should Not Ignore Non-Determinism
Yifan Song, Guoyin Wang, Sujian Li, Bill Yuchen Lin
•
Jul 15, 2024
•
25
4
Q-Sparse: Alle großen Sprachmodelle können vollständig spärlich aktiviert werden.
Q-Sparse: All Large Language Models can be Fully Sparsely-Activated
Hongyu Wang, Shuming Ma, Ruiping Wang, Furu Wei
•
Jul 15, 2024
•
23
3
Grundlegende Autorater: Die Bändigung großer Sprachmodelle für eine bessere automatische Bewertung
Foundational Autoraters: Taming Large Language Models for Better Automatic Evaluation
Tu Vu, Kalpesh Krishna, Salaheddin Alzubi, Chris Tar, Manaal Faruqui, Yun-Hsuan Sung
•
Jul 15, 2024
•
15
8
Make-An-Agent: Ein generalisierbarer Richtliniennetzwerk-Generator mit Verhaltensgesteuerter Diffusion
Make-An-Agent: A Generalizable Policy Network Generator with Behavior-Prompted Diffusion
Yongyuan Liang, Tingqiang Xu, Kaizhe Hu, Guangqi Jiang, Furong Huang, Huazhe Xu
•
Jul 15, 2024
•
11
2
DataDream: Generierung von Datensätzen mit wenigen Beispielen
DataDream: Few-shot Guided Dataset Generation
Jae Myung Kim, Jessica Bader, Stephan Alaniz, Cordelia Schmid, Zeynep Akata
•
Jul 15, 2024
•
10
2
Maskierte generative Video-zu-Audio-Transformer mit verbesserte Synchronizität
Masked Generative Video-to-Audio Transformers with Enhanced Synchronicity
Santiago Pascual, Chunghsin Yeh, Ioannis Tsiamas, Joan Serrà
•
Jul 15, 2024
•
8
2
Video-Belegungsmodelle
Video Occupancy Models
Manan Tomar, Philippe Hansen-Estruch, Philip Bachman, Alex Lamb, John Langford, Matthew E. Taylor, Sergey Levine
•
Jun 25, 2024
•
8
2
Spider2-V: Wie weit sind multimodale Agenten von der Automatisierung von Datenwissenschafts- und Ingenieur-Workflows entfernt?
Spider2-V: How Far Are Multimodal Agents From Automating Data Science and Engineering Workflows?
Ruisheng Cao, Fangyu Lei, Haoyuan Wu, Jixuan Chen, Yeqiao Fu, Hongcheng Gao, Xinzhuang Xiong, Hanchong Zhang, Yuchen Mao, Wenjing Hu, Tianbao Xie, Hongshen Xu, Danyang Zhang, Sida Wang, Ruoxi Sun, Pengcheng Yin, Caiming Xiong, Ansong Ni, Qian Liu, Victor Zhong, Lu Chen, Kai Yu, Tao Yu
•
Jul 15, 2024
•
7
2
LAB-Bench: Messung der Fähigkeiten von Sprachmodellen für biologische Forschung
LAB-Bench: Measuring Capabilities of Language Models for Biology Research
Jon M. Laurent, Joseph D. Janizek, Michael Ruzo, Michaela M. Hinks, Michael J. Hammerling, Siddharth Narayanan, Manvitha Ponnapati, Andrew D. White, Samuel G. Rodriques
•
Jul 14, 2024
•
6
2
SHERL: Synthese von hoher Genauigkeit und effizientem Speicher für ressourcenbeschränktes Transferlernen
SHERL: Synthesizing High Accuracy and Efficient Memory for Resource-Limited Transfer Learning
Haiwen Diao, Bo Wan, Xu Jia, Yunzhi Zhuge, Ying Zhang, Huchuan Lu, Long Chen
•
Jul 10, 2024
•
6
2
MMM: Multilinguale gegenseitige Verstärkungseffekt-Mischen von Datensätzen & Test mit Großsprachigen Modellen für die Extraktion von Informationen im Open Domain
MMM: Multilingual Mutual Reinforcement Effect Mix Datasets & Test with Open-domain Information Extraction Large Language Models
Chengguang Gan, Qingyu Yin, Xinyang He, Hanjun Wei, Yunhao Liang, Younghun Lim, Shijian Wang, Hexiang Huang, Qinghao Zhang, Shiwen Ni, Tatsunori Mori
•
Jul 15, 2024
•
5
2
LLM-Schaltkreisanalysen sind konsistent über Training und Skala hinweg.
LLM Circuit Analyses Are Consistent Across Training and Scale
Curt Tigges, Michael Hanna, Qinan Yu, Stella Biderman
•
Jul 15, 2024
•
5
2
Rauschkalibrierung: Plug-and-Play-Inhaltsbewahrung bei der Videoverbesserung unter Verwendung von vorab trainierten Videodiffusionsmodellen
Noise Calibration: Plug-and-play Content-Preserving Video Enhancement using Pre-trained Video Diffusion Models
Qinyu Yang, Haoxin Chen, Yong Zhang, Menghan Xia, Xiaodong Cun, Zhixun Su, Ying Shan
•
Jul 14, 2024
•
5
2