ChatPaper.aiChatPaper.ai
Startseite

arXiv

HuggingFace

PreiseKontoArbeitsbereich

•
•

•
•

•
•

•
•

•
•

Footer

Company name

ChatPaper.ai: Your advanced AI reading assistant.

Contact us: [email protected]

X (Twitter)

Products

  • AI Search
  • AI Mind Map
  • Arxiv Summary
  • Huggingface Summary

Support

  • FAQ
  • Contact

Company

  • Blog
  • Privacy Policy
  • Terms of Service

Available Languages

  • 🇬🇧English
  • 🇨🇳中文简体
  • 🇭🇰繁體中文
  • 🇯🇵日本語
  • 🇰🇷한국어
  • 🇩🇪Deutsch
  • 🇫🇷Français
  • 🇷🇺Русский
  • 🇪🇸Español

© 2025 chatpaper.ai All rights reserved.

KI-Forschungspapiere Täglich

Täglich kuratierte KI-Forschungspapiere mit Übersetzungen

Mutarjim: Fortschritt in der bidirektionalen Arabisch-Englisch-Übersetzung mit einem kleinen Sprachmodell
Mutarjim: Advancing Bidirectional Arabic-English Translation with a Small Language Model

Khalil Hennara, Muhammad Hreden, Mohamed Motaism Hamed, Zeina Aldallal, Sara Chrouf, Safwan AlModhayan•May 23, 2025•1996

Verlagerung der KI-Effizienz von der modellzentrierten zur datenzentrierten Kompression
Shifting AI Efficiency From Model-Centric to Data-Centric Compression

Xuyang Liu, Zichen Wen, Shaobo Wang, Junjie Chen, Zhishan Tao, Yubo Wang, Xiangqi Jin, Chang Zou, Yiyu Wang, Chenfei Liao, Xu Zheng, Honggang Chen, Weijia Li, Xuming Hu, Conghui He, Linfeng Zhang•May 25, 2025•1334

Alchemist: Öffentliche Text-zu-Bild-Daten in generatives Gold verwandeln
Alchemist: Turning Public Text-to-Image Data into Generative Gold

Valerii Startsev, Alexander Ustyuzhanin, Alexey Kirillov, Dmitry Baranchuk, Sergey Kastryulin•May 25, 2025•632

BizFinBench: Ein geschäftsorientierter, realitätsnaher Finanzbenchmark zur Bewertung von LLMs
BizFinBench: A Business-Driven Real-World Financial Benchmark for Evaluating LLMs

Guilong Lu, Xuntao Guo, Rongjunchen Zhang, Wenqiao Zhu, Ji Liu•May 26, 2025•594

PATS: Prozessbasierter adaptiver Denkmoduswechsel
PATS: Process-Level Adaptive Thinking Mode Switching

Yi Wang, Junxiao Liu, Shimao Zhang, Jiajun Chen, Shujian Huang•May 25, 2025•452

Verkörperte Agenten treffen auf Personalisierung: Untersuchung der Speichernutzung für personalisierte Unterstützung
Embodied Agents Meet Personalization: Exploring Memory Utilization for Personalized Assistance

Taeyoon Kwon, Dongwook Choi, Sunghwan Kim, Hyojun Kim, Seungjun Moon, Beong-woo Kwak, Kuan-Hao Huang, Jinyoung Yeo•May 22, 2025•432

ARM: Adaptives Reasoning-Modell
ARM: Adaptive Reasoning Model

Siye Wu, Jian Xie, Yikai Zhang, Aili Chen, Kai Zhang, Yu Su, Yanghua Xiao•May 26, 2025•414

Enigmata: Skalierung des logischen Denkens in großen Sprachmodellen mit synthetischen, überprüfbaren Rätseln
Enigmata: Scaling Logical Reasoning in Large Language Models with Synthetic Verifiable Puzzles

Jiangjie Chen, Qianyu He, Siyu Yuan, Aili Chen, Zhicheng Cai, Weinan Dai, Hongli Yu, Qiying Yu, Xuefeng Li, Jiaze Chen, Hao Zhou, Mingxuan Wang•May 26, 2025•371

Entschlüsselung der trajektorienunterstützten LLM-Argumentation: Eine Optimierungsperspektive
Deciphering Trajectory-Aided LLM Reasoning: An Optimization Perspective

Junnan Liu, Hongwei Liu, Linchen Xiao, Shudong Liu, Taolin Zhang, Zihan Ma, Songyang Zhang, Kai Chen•May 26, 2025•362

Ersatzsignale aus Format und Länge: Reinforcement Learning zur Lösung mathematischer Probleme ohne Referenzantworten
Surrogate Signals from Format and Length: Reinforcement Learning for Solving Mathematical Problems without Ground Truth Answers

Rihui Xin, Han Liu, Zecheng Wang, Yupeng Zhang, Dianbo Sui, Xiaolin Hu, Bingning Wang•May 26, 2025•292

B-Score: Erkennung von Verzerrungen in großen Sprachmodellen anhand der Antwortverläufe
B-score: Detecting biases in large language models using response history

An Vo, Mohammad Reza Taesiri, Daeyoung Kim, Anh Totti Nguyen•May 24, 2025•282

Flex-Judge: Einmal Denken, Überall Bewerten
Flex-Judge: Think Once, Judge Anywhere

Jongwoo Ko, Sungnyun Kim, Sungwoo Cho, Se-Young Yun•May 24, 2025•252

MOOSE-Chem2: Erforschung der Grenzen von LLMs bei der feingranularen wissenschaftlichen Hypothesenentdeckung durch hierarchische Suche
MOOSE-Chem2: Exploring LLM Limits in Fine-Grained Scientific Hypothesis Discovery via Hierarchical Search

Zonglin Yang, Wanhao Liu, Ben Gao, Yujie Liu, Wei Li, Tong Xie, Lidong Bing, Wanli Ouyang, Erik Cambria, Dongzhan Zhou•May 25, 2025•242

Lernen zu argumentieren ohne externe Belohnungen
Learning to Reason without External Rewards

Xuandong Zhao, Zhewei Kang, Aosong Feng, Sergey Levine, Dawn Song•May 26, 2025•232

Können MLLMs mich nach Hause führen? Eine Benchmark-Studie zur feinkörnigen visuellen Argumentation anhand von Verkehrsnetzplänen
Can MLLMs Guide Me Home? A Benchmark Study on Fine-Grained Visual Reasoning from Transit Maps

Sicheng Feng, Song Wang, Shuyi Ouyang, Lingdong Kong, Zikai Song, Jianke Zhu, Huan Wang, Xinchao Wang•May 24, 2025•233

Lebenslange Sicherheitsausrichtung für Sprachmodelle
Lifelong Safety Alignment for Language Models

Haoyu Wang, Zeyu Qin, Yifei Zhao, Chao Du, Min Lin, Xueqian Wang, Tianyu Pang•May 26, 2025•221

Jodi: Vereinheitlichung von visueller Generierung und Verständnis durch gemeinsame Modellierung
Jodi: Unification of Visual Generation and Understanding via Joint Modeling

Yifeng Xu, Zhenliang He, Meina Kan, Shiguang Shan, Xilin Chen•May 25, 2025•202

StructEval: Benchmarking der Fähigkeiten von LLMs zur Erzeugung struktureller Ausgaben
StructEval: Benchmarking LLMs' Capabilities to Generate Structural Outputs

Jialin Yang, Dongfu Jiang, Lipeng He, Sherman Siu, Yuxuan Zhang, Disen Liao, Zhuofeng Li, Huaye Zeng, Yiming Jia, Haozhe Wang, Benjamin Schneider, Chi Ruan, Wentao Ma, Zhiheng Lyu, Yifei Wang, Yi Lu, Quy Duc Do, Ziyan Jiang, Ping Nie, Wenhu Chen•May 26, 2025•181

Reinforcement Fine-Tuning stärkt die Fähigkeit zum logischen Denken in multimodalen Large Language Models.
Reinforcement Fine-Tuning Powers Reasoning Capability of Multimodal Large Language Models

Haoyuan Sun, Jiaqi Wu, Bo Xia, Yifu Luo, Yifei Zhao, Kai Qin, Xufei Lv, Tiantian Zhang, Yongzhe Chang, Xueqian Wang•May 24, 2025•183

REARANK: Reasoning Re-ranking Agent mittels Reinforcement Learning
REARANK: Reasoning Re-ranking Agent via Reinforcement Learning

Le Zhang, Bo Wang, Xipeng Qiu, Siva Reddy, Aishwarya Agrawal•May 26, 2025•172

ModernGBERT: Ein ausschließlich deutschsprachiges 1B Encoder-Modell, das von Grund auf trainiert wurde
ModernGBERT: German-only 1B Encoder Model Trained from Scratch

Anton Ehrmanntraut, Julia Wunderle, Jan Pfister, Fotis Jannidis, Andreas Hotho•May 19, 2025•172

Diskrete Markov-Brücke
Discrete Markov Bridge

Hengli Li, Yuxuan Wang, Song-Chun Zhu, Ying Nian Wu, Zilong Zheng•May 26, 2025•162

Omni-R1: Verstärkendes Lernen für omnimodales Denken durch Zwei-System-Kollaboration
Omni-R1: Reinforcement Learning for Omnimodal Reasoning via Two-System Collaboration

Hao Zhong, Muzhi Zhu, Zongze Du, Zheng Huang, Canyu Zhao, Mingyu Liu, Wen Wang, Hao Chen, Chunhua Shen•May 26, 2025•151

Welche Datenattribute fördern mathematisches und programmtechnisches Denken? Eine Untersuchung mittels Einflussfunktionen
Which Data Attributes Stimulate Math and Code Reasoning? An Investigation via Influence Functions

Siqi Kou, Qingyuan Tian, Hanwen Xu, Zihao Zeng, Zhijie Deng•May 26, 2025•151

Hybrides Neuronales-MPM für interaktive Fluidsimulationen in Echtzeit
Hybrid Neural-MPM for Interactive Fluid Simulations in Real-Time

Jingxuan Xu, Hong Huang, Chuhang Zou, Manolis Savva, Yunchao Wei, Wuyang Chen•May 25, 2025•152

Vibe-Coding vs. Agentisches Coding: Grundlagen und praktische Implikationen agentischer KI
Vibe Coding vs. Agentic Coding: Fundamentals and Practical Implications of Agentic AI

Ranjan Sapkota, Konstantinos I. Roumeliotis, Manoj Karkee•May 26, 2025•142

Erledigt ist besser als perfekt: Effizientes Schließen durch strukturierte Mehrschritt-Zerlegung freisetzen
Done Is Better than Perfect: Unlocking Efficient Reasoning by Structured Multi-Turn Decomposition

Zihao Zeng, Xuyao Huang, Boxiu Li, Hao Zhang, Zhijie Deng•May 26, 2025•132

Speichereffizientes visuelles autoregressives Modellieren mit skalensensitiver KV-Cache-Komprimierung
Memory-Efficient Visual Autoregressive Modeling with Scale-Aware KV Cache Compression

Kunjun Li, Zigeng Chen, Cheng-Yen Yang, Jenq-Neng Hwang•May 26, 2025•132

AdaCtrl: Auf dem Weg zu adaptivem und steuerbarem Reasoning durch schwierigkeitsbewusstes Budgeting
AdaCtrl: Towards Adaptive and Controllable Reasoning via Difficulty-Aware Budgeting

Shijue Huang, Hongru Wang, Wanjun Zhong, Zhaochen Su, Jiazhan Feng, Bowen Cao, Yi R. Fung•May 24, 2025•132

Die Suche nach effizientem Schließen: Ein datenzentrierter Benchmark für CoT-Destillation
The Quest for Efficient Reasoning: A Data-Centric Benchmark to CoT Distillation

Ruichen Zhang, Rana Muhammad Shahroz Khan, Zhen Tan, Dawei Li, Song Wang, Tianlong Chen•May 24, 2025•123

Hartes Negatives Kontrastives Lernen für feinkörniges geometrisches Verständnis in großen multimodalen Modellen
Hard Negative Contrastive Learning for Fine-Grained Geometric Understanding in Large Multimodal Models

Kai Sun, Yushi Bai, Zhen Yang, Jiajie Zhang, Ji Qi, Lei Hou, Juanzi Li•May 26, 2025•111

Force Prompting: Videogenerationsmodelle können physikbasierte Steuersignale erlernen und verallgemeinern
Force Prompting: Video Generation Models Can Learn and Generalize Physics-based Control Signals

Nate Gillman, Charles Herrmann, Michael Freeman, Daksh Aggarwal, Evan Luo, Deqing Sun, Chen Sun•May 26, 2025•112

G1: Bootstrapping von Wahrnehmungs- und Denkfähigkeiten eines Vision-Sprache-Modells durch Reinforcement Learning
G1: Bootstrapping Perception and Reasoning Abilities of Vision-Language Model via Reinforcement Learning

Liang Chen, Hongcheng Gao, Tianyu Liu, Zhiqi Huang, Flood Sung, Xinyu Zhou, Yuxin Wu, Baobao Chang•May 19, 2025•112

Verschachteltes Schließen für große Sprachmodelle durch Verstärkungslernen
Interleaved Reasoning for Large Language Models via Reinforcement Learning

Roy Xie, David Qiu, Deepak Gopinath, Dong Lin, Yanchao Sun, Chong Wang, Saloni Potdar, Bhuwan Dhingra•May 26, 2025•103

WHISTRESS: Anreicherung von Transkriptionen durch Satzbetonungserkennung
WHISTRESS: Enriching Transcriptions with Sentence Stress Detection

Iddo Yosha, Dorin Shteyman, Yossi Adi•May 25, 2025•102

WINA: Gewichtsbasierte Neuronaktivierung zur Beschleunigung der Inferenz großer Sprachmodelle
WINA: Weight Informed Neuron Activation for Accelerating Large Language Model Inference

Sihan Chen, Dan Zhao, Jongwoo Ko, Colby Banbury, Huiping Zhuang, Luming Liang, Tianyi Chen•May 26, 2025•92

Von Dutzenden Stunden zu Zehntausenden: Skalierung der Rückübersetzung für Spracherkennung
From Tens of Hours to Tens of Thousands: Scaling Back-Translation for Speech Recognition

Tianduo Wang, Lu Xu, Wei Lu, Shanbo Cheng•May 22, 2025•92

MLR-Bench: Bewertung von KI-Agenten in offener maschineller Lernforschung
MLR-Bench: Evaluating AI Agents on Open-Ended Machine Learning Research

Hui Chen, Miao Xiong, Yujie Lu, Wei Han, Ailin Deng, Yufei He, Jiaying Wu, Yibo Li, Yue Liu, Bryan Hooi•May 26, 2025•81

LLaDA 1.5: Varianzreduzierte Präferenzoptimierung für große Sprachdiffusionsmodelle
LLaDA 1.5: Variance-Reduced Preference Optimization for Large Language Diffusion Models

Fengqi Zhu, Rongzhen Wang, Shen Nie, Xiaolu Zhang, Chunwei Wu, Jun Hu, Jun Zhou, Jianfei Chen, Yankai Lin, Ji-Rong Wen, Chongxuan Li•May 25, 2025•82

STAR-R1: Räumliche Transformationslogik durch Verstärkung multimodaler LLMs
STAR-R1: Spatial TrAnsformation Reasoning by Reinforcing Multimodal LLMs

Zongzhao Li, Zongyang Ma, Mingze Li, Songyou Li, Yu Rong, Tingyang Xu, Ziqi Zhang, Deli Zhao, Wenbing Huang•May 21, 2025•82

InfantAgent-Next: Ein multimodaler Generalist-Agent für automatisierte Computerinteraktion
InfantAgent-Next: A Multimodal Generalist Agent for Automated Computer Interaction

Bin Lei, Weitai Kang, Zijian Zhang, Winson Chen, Xi Xie, Shan Zuo, Mimi Xie, Ali Payani, Mingyi Hong, Yan Yan, Caiwen Ding•May 16, 2025•82

Das Coverage-Prinzip: Ein Rahmenwerk zum Verständnis von kompositioneller Generalisierung
The Coverage Principle: A Framework for Understanding Compositional Generalization

Hoyeon Chang, Jinho Park, Hanseul Cho, Sohee Yang, Miyoung Ko, Hyeonbin Hwang, Seungpil Won, Dohaeng Lee, Youbin Ahn, Minjoon Seo•May 26, 2025•71

Starke Membership-Inference-Angriffe auf umfangreiche Datensätze und (mäßig) große Sprachmodelle
Strong Membership Inference Attacks on Massive Datasets and (Moderately) Large Language Models

Jamie Hayes, Ilia Shumailov, Christopher A. Choquette-Choo, Matthew Jagielski, George Kaissis, Katherine Lee, Milad Nasr, Sahra Ghalebikesabi, Niloofar Mireshghallah, Meenatchi Sundaram Mutu Selva Annamalai, Igor Shilov, Matthieu Meeus, Yves-Alexandre de Montjoye, Franziska Boenisch, Adam Dziedzic, A. Feder Cooper•May 24, 2025•72

Dynamische Risikobewertungen für offensive Cybersicherheitsagenten
Dynamic Risk Assessments for Offensive Cybersecurity Agents

Boyi Wei, Benedikt Stroebl, Jiacen Xu, Joie Zhang, Zhou Li, Peter Henderson•May 23, 2025•72

Beschleunigung des Nash-Lernens aus menschlichem Feedback durch Mirror Prox
Accelerating Nash Learning from Human Feedback via Mirror Prox

Daniil Tiapkin, Daniele Calandriello, Denis Belomestny, Eric Moulines, Alexey Naumov, Kashif Rasul, Michal Valko, Pierre Menard•May 26, 2025•62

Neubewertung der Sampling-Kriterien im Reinforcement Learning für LLM-Reasoning: Eine Perspektive der Kompetenz-Schwierigkeits-Ausrichtung
Rethinking the Sampling Criteria in Reinforcement Learning for LLM Reasoning: A Competence-Difficulty Alignment Perspective

Deyang Kong, Qi Guo, Xiangyu Xi, Wei Wang, Jingang Wang, Xunliang Cai, Shikun Zhang, Wei Ye•May 23, 2025•62

Position: Mechanistische Interpretierbarkeit sollte die Merkmalskonsistenz in SAEs priorisieren
Position: Mechanistic Interpretability Should Prioritize Feature Consistency in SAEs

Xiangchen Song, Aashiq Muhamed, Yujia Zheng, Lingjing Kong, Zeyu Tang, Mona T. Diab, Virginia Smith, Kun Zhang•May 26, 2025•51

"Überdenken" Sie das Reranking von Textpassagen nicht: Ist logisches Schließen wirklich notwendig?
Don't "Overthink" Passage Reranking: Is Reasoning Truly Necessary?

Nour Jedidi, Yung-Sung Chuang, James Glass, Jimmy Lin•May 22, 2025•52

Eine peinlich einfache Verteidigung gegen LLM-Zerstörungsangriffe
An Embarrassingly Simple Defense Against LLM Abliteration Attacks

Harethah Abu Shairah, Hasan Abed Al Kader Hammoud, Bernard Ghanem, George Turkiyyah•May 25, 2025•42

Hybride latente Argumentation durch Reinforcement Learning
Hybrid Latent Reasoning via Reinforcement Learning

Zhenrui Yue, Bowen Jin, Huimin Zeng, Honglei Zhuang, Zhen Qin, Jinsung Yoon, Lanyu Shang, Jiawei Han, Dong Wang•May 24, 2025•42

Überbrückung von überwachtem Lernen und bestärkendem Lernen im mathematischen Denken
Bridging Supervised Learning and Reinforcement Learning in Math Reasoning

Huayu Chen, Kaiwen Zheng, Qinsheng Zhang, Ganqu Cui, Yin Cui, Haotian Ye, Tsung-Yi Lin, Ming-Yu Liu, Jun Zhu, Haoxiang Wang•May 23, 2025•42

GLEAM: Erlernen einer generalisierbaren Explorationsstrategie für aktives Mapping in komplexen 3D-Innenraumszenen
GLEAM: Learning Generalizable Exploration Policy for Active Mapping in Complex 3D Indoor Scenes

Xiao Chen, Tai Wang, Quanyi Li, Tao Huang, Jiangmiao Pang, Tianfan Xue•May 26, 2025•31

Fehlertypisierung für intelligentere Belohnungen: Verbesserung von Prozess-Belohnungsmodellen durch fehlerbewusste hierarchische Überwachung
Error Typing for Smarter Rewards: Improving Process Reward Models with Error-Aware Hierarchical Supervision

Tej Deep Pala, Panshul Sharma, Amir Zadeh, Chuan Li, Soujanya Poria•May 26, 2025•32

DoctorAgent-RL: Ein Multi-Agenten-Kollaboratives Reinforcement-Learning-System für Mehrschrittige Klinische Dialoge
DoctorAgent-RL: A Multi-Agent Collaborative Reinforcement Learning System for Multi-Turn Clinical Dialogue

Yichun Feng, Jiawei Wang, Lu Zhou, Yixue Li•May 26, 2025•32

Architektonische Hintertüren für den Datendiebstahl innerhalb von Batches und die Manipulation der Modellinferenz
Architectural Backdoors for Within-Batch Data Stealing and Model Inference Manipulation

Nicolas Küchler, Ivan Petrov, Conrad Grobler, Ilia Shumailov•May 23, 2025•32

UFT: Vereinheitlichung von überwachtem und verstärkendem Feintuning
UFT: Unifying Supervised and Reinforcement Fine-Tuning

Mingyang Liu, Gabriele Farina, Asuman Ozdaglar•May 22, 2025•33

EquivPruner: Steigerung von Effizienz und Qualität in LLM-basierter Suche durch Aktionsreduzierung
EquivPruner: Boosting Efficiency and Quality in LLM-Based Search via Action Pruning

Jiawei Liu, Qisi Chen, Jianshu Zhang, Quan Liu, Defu Lian•May 22, 2025•33

DiSA: Diffusionsschritt-Temperung in der autoregressiven Bildgenerierung
DiSA: Diffusion Step Annealing in Autoregressive Image Generation

Qinyu Zhao, Jaskirat Singh, Ming Xu, Akshay Asthana, Stephen Gould, Liang Zheng•May 26, 2025•21

Sehen heißt Glauben, aber wie sehr? Eine umfassende Analyse der verbalisierten Kalibrierung in Vision-Sprache-Modellen
Seeing is Believing, but How Much? A Comprehensive Analysis of Verbalized Calibration in Vision-Language Models

Weihao Xuan, Qingcheng Zeng, Heli Qi, Junjue Wang, Naoto Yokoya•May 26, 2025•21

FLAME-MoE: Eine transparente End-to-End-Forschungsplattform für Mixture-of-Experts-Sprachmodelle
FLAME-MoE: A Transparent End-to-End Research Platform for Mixture-of-Experts Language Models

Hao Kang, Zichun Yu, Chenyan Xiong•May 26, 2025•21

MMIG-Bench: Auf dem Weg zu einer umfassenden und erklärbaren Bewertung von Multi-Modalen Bildgenerierungsmodellen
MMIG-Bench: Towards Comprehensive and Explainable Evaluation of Multi-Modal Image Generation Models

Hang Hua, Ziyun Zeng, Yizhi Song, Yunlong Tang, Liu He, Daniel Aliaga, Wei Xiong, Jiebo Luo•May 26, 2025•22

Der pragmatische Verstand der Maschinen: Die Entstehung pragmatischer Kompetenz in großen Sprachmodellen nachzeichnen
The Pragmatic Mind of Machines: Tracing the Emergence of Pragmatic Competence in Large Language Models

Kefan Yu, Qingcheng Zeng, Weihao Xuan, Wanxin Li, Jingyi Wu, Rob Voigt•May 24, 2025•22

InstructPart: Aufgabenorientierte Teilesegmentierung mit Instruktionslogik
InstructPart: Task-Oriented Part Segmentation with Instruction Reasoning

Zifu Wan, Yaqi Xie, Ce Zhang, Zhiqiu Lin, Zihan Wang, Simon Stepputtis, Deva Ramanan, Katia Sycara•May 23, 2025•22

TAGS: Ein Framework für Generalisten-Spezialisten zur Testzeit mit abrufgestützter Argumentation und Verifizierung
TAGS: A Test-Time Generalist-Specialist Framework with Retrieval-Augmented Reasoning and Verification

Jianghao Wu, Feilong Tang, Yulong Li, Ming Hu, Haochen Xue, Shoaib Jameel, Yutong Xie, Imran Razzak•May 23, 2025•22

Auf dem Weg zu einer ganzheitlichen Bewertung großer Audio-Sprach-Modelle: Eine umfassende Übersicht
Towards Holistic Evaluation of Large Audio-Language Models: A Comprehensive Survey

Chih-Kai Yang, Neo S. Ho, Hung-yi Lee•May 21, 2025•22

EgoZero: Robotisches Lernen mit Smart Glasses
EgoZero: Robot Learning from Smart Glasses

Vincent Liu, Ademi Adeniji, Haotian Zhan, Raunaq Bhirangi, Pieter Abbeel, Lerrel Pinto•May 26, 2025•11

MOLE: Metadatenextraktion und -validierung in wissenschaftlichen Artikeln mittels LLMs
MOLE: Metadata Extraction and Validation in Scientific Papers Using LLMs

Zaid Alyafeai, Maged S. Al-Shaibani, Bernard Ghanem•May 26, 2025•11

Die Geburt des Wissens: Emergente Merkmale über Zeit, Raum und Skala in großen Sprachmodellen
The Birth of Knowledge: Emergent Features across Time, Space, and Scale in Large Language Models

Shashata Sawmya, Micah Adler, Nir Shavit•May 26, 2025•12

CASS: Nvidia-zu-AMD-Transpilation mit Daten, Modellen und Benchmarking
CASS: Nvidia to AMD Transpilation with Data, Models, and Benchmark

Ahmed Heakl, Sarim Hashmi, Gustavo Bertolo Stahl, Seung Hun Eddie Han, Salman Khan, Abdulrahman Mahmoud•May 22, 2025•12

Textuelle Steuerungsvektoren können das visuelle Verständnis in multimodalen großen Sprachmodellen verbessern.
Textual Steering Vectors Can Improve Visual Understanding in Multimodal Large Language Models

Woody Haosheng Gan, Deqing Fu, Julian Asilis, Ollie Liu, Dani Yogatama, Vatsal Sharan, Robin Jia, Willie Neiswanger•May 20, 2025•12

Option-bewusster zeitlich abstrahierter Wert für offline zielbedingtes bestärkendes Lernen
Option-aware Temporally Abstracted Value for Offline Goal-Conditioned Reinforcement Learning

Hongjoon Ahn, Heewoong Choi, Jisu Han, Taesup Moon•May 19, 2025•12