ChatPaper.ai
Menü öffnen
Startseite
Tägliche Publikationen
arXiv
HuggingFace
Preise
Konto
Arbeitsbereich
🇩🇪
Deutsch
Loading...
•
•
•
•
•
•
•
•
•
•
KI-Forschungspapiere Täglich
Täglich kuratierte KI-Forschungspapiere mit Übersetzungen
February 24th, 2025
LLM-Mikroskop: Die versteckte Rolle der Interpunktion im Kontextgedächtnis von Transformern
LLM-Microscope: Uncovering the Hidden Role of Punctuation in Context Memory of Transformers
Anton Razzhigaev, Matvey Mikhalchuk, Temurbek Rahmatullaev, Elizaveta Goncharova, Polina Druzhinina, Ivan Oseledets, Andrey Kuznetsov
•
Feb 20, 2025
•
175
3
SurveyX: Automatisierung akademischer Umfragen durch große Sprachmodelle
SurveyX: Academic Survey Automation via Large Language Models
Xun Liang, Jiawei Yang, Yezhaohui Wang, Chen Tang, Zifan Zheng, Simin Niu, Shichao Song, Hanyu Wang, Bo Tang, Feiyu Xiong, Keming Mao, Zhiyu li
•
Feb 20, 2025
•
100
5
Mol-LLaMA: Auf dem Weg zu einem allgemeinen Verständnis von Molekülen in großen molekularen Sprachmodellen
Mol-LLaMA: Towards General Understanding of Molecules in Large Molecular Language Model
Dongki Kim, Wonbin Lee, Sung Ju Hwang
•
Feb 19, 2025
•
46
2
PhotoDoodle: Künstlerische Bildbearbeitung durch Lernen aus wenigen paarweisen Beispielen
PhotoDoodle: Learning Artistic Image Editing from Few-Shot Pairwise Data
Shijie Huang, Yiren Song, Yuxuan Zhang, Hailong Guo, Xueyin Wang, Mike Zheng Shou, Jiaming Liu
•
Feb 20, 2025
•
42
6
MaskGWM: Ein generalisierbares Fahrweltmodell mit Video-Masken-Rekonstruktion
MaskGWM: A Generalizable Driving World Model with Video Mask Reconstruction
Jingcheng Ni, Yuxin Guo, Yichen Liu, Rui Chen, Lewei Lu, Zehuan Wu
•
Feb 17, 2025
•
40
2
SIFT: Verankerung des LLM-Denkens in Kontexten durch Sticker
SIFT: Grounding LLM Reasoning in Contexts via Stickers
Zihao Zeng, Xuyao Huang, Boxiu Li, Zhijie Deng
•
Feb 19, 2025
•
31
3
VLM^2-Bench: Eine genauere Betrachtung, wie gut VLMs implizit explizite visuelle Übereinstimmungshinweise verknüpfen
VLM^2-Bench: A Closer Look at How Well VLMs Implicitly Link Explicit Matching Visual Cues
Jianshu Zhang, Dongyu Yao, Renjie Pi, Paul Pu Liang, Yi R., Fung
•
Feb 17, 2025
•
30
2
LightThinker: Schritt-für-Schritt-Denken durch Kompression
LightThinker: Thinking Step-by-Step Compression
Jintian Zhang, Yuqi Zhu, Mengshu Sun, Yujie Luo, Shuofei Qiao, Lun Du, Da Zheng, Huajun Chen, Ningyu Zhang
•
Feb 21, 2025
•
29
7
MoBA: Mixture of Block Attention für Large Language Models mit langem Kontext
MoBA: Mixture of Block Attention for Long-Context LLMs
Enzhe Lu, Zhejun Jiang, Jingyuan Liu, Yulun Du, Tao Jiang, Chao Hong, Shaowei Liu, Weiran He, Enming Yuan, Yuzhi Wang, Zhiqi Huang, Huan Yuan, Suting Xu, Xinran Xu, Guokun Lai, Yanru Chen, Huabin Zheng, Junjie Yan, Jianlin Su, Yuxin Wu, Neo Y. Zhang, Zhilin Yang, Xinyu Zhou, Mingxing Zhang, Jiezhong Qiu
•
Feb 18, 2025
•
17
2
Ist der Sicherheitsstandard für alle gleich? Benutzerspezifische Sicherheitsbewertung von großen Sprachmodellen
Is Safety Standard Same for Everyone? User-Specific Safety Evaluation of Large Language Models
Yeonjun In, Wonjoong Kim, Kanghoon Yoon, Sungchul Kim, Mehrab Tanjim, Kibum Kim, Chanyoung Park
•
Feb 20, 2025
•
16
2
StructFlowBench: Ein strukturierter Flow-Benchmark für Multi-Turn-Anweisungsfolgen
StructFlowBench: A Structured Flow Benchmark for Multi-turn Instruction Following
Jinnan Li, Jinzhe Li, Yue Wang, Yi Chang, Yuan Wu
•
Feb 20, 2025
•
15
2
Auf dem Weg zur vollautomatisierten Materialentdeckung durch großskalige Synthese Datensätze und Experten-Level-LLM-als-Bewertungssystem
Towards Fully-Automated Materials Discovery via Large-Scale Synthesis Dataset and Expert-Level LLM-as-a-Judge
Heegyu Kim, Taeyang Jeon, Seungtaek Choi, Jihoon Hong, Dongwon Jeon, Sungbum Cho, Ga-Yeon Baek, Kyung-Won Kwak, Dong-Hee Lee, Sun-Jin Choi, Jisu Bae, Chihoon Lee, Yunseo Kim, Jinsung Park, Hyunsouk Cho
•
Feb 23, 2025
•
11
2
Bewertung multimodaler generativer KI nach koreanischen Bildungsstandards
Evaluating Multimodal Generative AI with Korean Educational Standards
Sanghee Park, Geewook Kim
•
Feb 21, 2025
•
10
3
Die Beziehung zwischen logischem Denken und Leistung in großen Sprachmodellen -- o3 (mini) denkt intensiver, nicht länger
The Relationship Between Reasoning and Performance in Large Language Models -- o3 (mini) Thinks Harder, Not Longer
Marthe Ballon, Andres Algaba, Vincent Ginis
•
Feb 21, 2025
•
9
2
MedHallu: Ein umfassender Benchmark zur Erkennung medizinischer Halluzinationen in großen Sprachmodellen
MedHallu: A Comprehensive Benchmark for Detecting Medical Hallucinations in Large Language Models
Shrey Pandit, Jiawei Xu, Junyuan Hong, Zhangyang Wang, Tianlong Chen, Kaidi Xu, Ying Ding
•
Feb 20, 2025
•
9
2
FantasyID: Gesichtswissensgestützte ID-erhaltende Videogenerierung
FantasyID: Face Knowledge Enhanced ID-Preserving Video Generation
Yunpeng Zhang, Qiang Wang, Fan Jiang, Yaqi Fan, Mu Xu, Yonggang Qi
•
Feb 19, 2025
•
9
2
Denken Sie im JSON: Verstärkungsstrategie für strikte LLM-Schemaeinhaltung
Think Inside the JSON: Reinforcement Strategy for Strict LLM Schema Adherence
Bhavik Agarwal, Ishan Joshi, Viktoria Rojkova
•
Feb 18, 2025
•
9
2
KITAB-Bench: Ein umfassender Multi-Domain-Benchmark für arabische OCR und Dokumentenverständnis
KITAB-Bench: A Comprehensive Multi-Domain Benchmark for Arabic OCR and Document Understanding
Ahmed Heakl, Abdullah Sohail, Mukul Ranjan, Rania Hossam, Ghazi Ahmed, Mohamed El-Geish, Omar Maher, Zhiqiang Shen, Fahad Khan, Salman Khan
•
Feb 20, 2025
•
8
2
ReQFlow: Rectifizierter Quaternionen-Fluss für effiziente und hochwertige Protein-Rückgratgenerierung
ReQFlow: Rectified Quaternion Flow for Efficient and High-Quality Protein Backbone Generation
Angxiao Yue, Zichong Wang, Hongteng Xu
•
Feb 20, 2025
•
8
3
Ein-Schritt-Diffusionsmodelle mit f-Divergenz-Verteilungsanpassung
One-step Diffusion Models with f-Divergence Distribution Matching
Yilun Xu, Weili Nie, Arash Vahdat
•
Feb 21, 2025
•
7
2
InterFeedback: Enthüllung der interaktiven Intelligenz großer multimodaler Modelle durch menschliches Feedback
InterFeedback: Unveiling Interactive Intelligence of Large Multimodal Models via Human Feedback
Henry Hengyuan Zhao, Wenqi Pei, Yifei Tao, Haiyang Mei, Mike Zheng Shou
•
Feb 20, 2025
•
7
2
Tree-of-Debate: Mehrpersonen-Debattenbäume fördern kritisches Denken für wissenschaftliche vergleichende Analysen
Tree-of-Debate: Multi-Persona Debate Trees Elicit Critical Thinking for Scientific Comparative Analysis
Priyanka Kargupta, Ishika Agarwal, Tal August, Jiawei Han
•
Feb 20, 2025
•
6
2
EgoSpeak: Lernen, wann man für egozentrische Konversationsagenten in realen Umgebungen sprechen sollte
EgoSpeak: Learning When to Speak for Egocentric Conversational Agents in the Wild
Junhyeok Kim, Min Soo Kim, Jiwan Chung, Jungbin Cho, Jisoo Kim, Sungwoong Kim, Gyeongbo Sim, Youngjae Yu
•
Feb 17, 2025
•
6
2
Superintelligente Agenten bergen katastrophale Risiken: Kann Wissenschaftler-KI einen sichereren Weg bieten?
Superintelligent Agents Pose Catastrophic Risks: Can Scientist AI Offer a Safer Path?
Yoshua Bengio, Michael Cohen, Damiano Fornasiere, Joumana Ghosn, Pietro Greiner, Matt MacDermott, Sören Mindermann, Adam Oberman, Jesse Richardson, Oliver Richardson, Marc-Antoine Rondeau, Pierre-Luc St-Charles, David Williams-King
•
Feb 21, 2025
•
5
2
with Distance Measures Die Entwicklung von Modellen zur Erfassung von Schreibstilen ist ein wichtiger Aspekt der Forschung im Bereich der natürlichen Sprachverarbeitung. In dieser Arbeit führen wir mStyleDistance ein, einen Ansatz zur Erzeugung mehrsprachiger Stilembeddings und deren Bewertung mithilfe von Distanzmaßen. Wir untersuchen die Fähigkeit unseres Modells, stilistische Unterschiede in verschiedenen Sprachen zu erfassen und zu quantifizieren. Unsere Ergebnisse zeigen, dass mStyleDistance effektiv stilistische Merkmale über Sprachen hinweg erfassen kann und dass die verwendeten Distanzmaße eine zuverlässige Bewertung der stilistischen Ähnlichkeit ermöglichen. Dieser Ansatz eröffnet neue Möglichkeiten für die Analyse und den Vergleich von Schreibstilen in multilingualen Kontexten.
mStyleDistance: Multilingual Style Embeddings and their Evaluation
Justin Qiu, Jiacheng Zhu, Ajay Patel, Marianna Apidianaki, Chris Callison-Burch
•
Feb 21, 2025
•
3
2
CrossOver: 3D-Szenen-Cross-Modale-Ausrichtung
CrossOver: 3D Scene Cross-Modal Alignment
Sayan Deb Sarkar, Ondrej Miksik, Marc Pollefeys, Daniel Barath, Iro Armeni
•
Feb 20, 2025
•
3
3
PLDR-LLMs lernen einen generalisierbaren Tensoroperator, der ihr eigenes tiefes neuronales Netzwerk während der Inferenz ersetzen kann.
PLDR-LLMs Learn A Generalizable Tensor Operator That Can Replace Its Own Deep Neural Net At Inference
Burc Gokden
•
Feb 19, 2025
•
3
2
WHAC: Weltverankerte Menschen und Kameras
WHAC: World-grounded Humans and Cameras
Wanqi Yin, Zhongang Cai, Ruisi Wang, Fanzhou Wang, Chen Wei, Haiyi Mei, Weiye Xiao, Zhitao Yang, Qingping Sun, Atsushi Yamashita, Ziwei Liu, Lei Yang
•
Mar 19, 2024
•
3
2
Seltene Krankheiten differenzialdiagnostisch mit großen Sprachmodellen im großen Maßstab: Von abdominaler Aktinomykose bis hin zum Morbus Wilson
Rare Disease Differential Diagnosis with Large Language Models at Scale: From Abdominal Actinomycosis to Wilson's Disease
Elliot Schumacher, Dhruv Naik, Anitha Kannan
•
Feb 20, 2025
•
2
2
Benchmarking von LLMs für die Politikwissenschaft: Eine Perspektive der Vereinten Nationen
Benchmarking LLMs for Political Science: A United Nations Perspective
Yueqing Liang, Liangwei Yang, Chen Wang, Congying Xia, Rui Meng, Xiongxiao Xu, Haoran Wang, Ali Payani, Kai Shu
•
Feb 19, 2025
•
2
2
Lernen, regulatorische Elemente für die Vorhersage der Genexpression zu entdecken
Learning to Discover Regulatory Elements for Gene Expression Prediction
Xingyu Su, Haiyang Yu, Degui Zhi, Shuiwang Ji
•
Feb 19, 2025
•
2
2
UPCORE: Nutzungserhaltende Coreset-Auswahl für ausgewogenes Unlearning
UPCORE: Utility-Preserving Coreset Selection for Balanced Unlearning
Vaidehi Patil, Elias Stengel-Eskin, Mohit Bansal
•
Feb 20, 2025
•
1
2
JL1-CD: Ein neuer Benchmark für die Fernerkundungsänderungserkennung und ein robustes Multi-Lehrer-Wissensdistillationsframework
JL1-CD: A New Benchmark for Remote Sensing Change Detection and a Robust Multi-Teacher Knowledge Distillation Framework
Ziyuan Liu, Ruifei Zhu, Long Gao, Yuanxiu Zhou, Jingyu Ma, Yuantao Gu
•
Feb 19, 2025
•
1
2
Jenseits von Nein: Quantifizierung von Überverweigerung und emotionalen Bindungsgrenzen in KI
Beyond No: Quantifying AI Over-Refusal and Emotional Attachment Boundaries
David Noever, Grant Rosario
•
Feb 20, 2025
•
0
3