ChatPaper.ai
Apri menu
Home
Articoli del Giorno
arXiv
HuggingFace
Prezzi
Account
Spazio di lavoro
🇬🇧
English
Loading...
•
•
•
•
•
•
•
•
•
•
Articoli di Ricerca IA Giornalieri
Articoli di ricerca IA selezionati quotidianamente con traduzioni
March 7th, 2025
FuseChat-3.0: Ottimizzazione delle Preferenze incontra la Fusione di Modelli Eterogenei
FuseChat-3.0: Preference Optimization Meets Heterogeneous Model Fusion
Ziyi Yang, Fanqi Wan, Longguang Zhong, Canbin Huang, Guosheng Liang, Xiaojun Quan
•
Mar 6, 2025
•
15
3
LLMVoX: Modello di sintesi vocale autoregressivo in streaming per qualsiasi LLM
LLMVoX: Autoregressive Streaming Text-to-Speech Model for Any LLM
Sambal Shikhar, Mohammed Irfan Kurpath, Sahal Shaji Mullappilly, Jean Lahoud, Fahad Khan, Rao Muhammad Anwer, Salman Khan, Hisham Cholakkal
•
Mar 6, 2025
•
70
5
Audio Flamingo 2: Un Modello Audio-Linguistico con Comprensione di Audio Lunghi e Capacità di Ragionamento Esperto
Audio Flamingo 2: An Audio-Language Model with Long-Audio Understanding and Expert Reasoning Abilities
Sreyan Ghosh, Zhifeng Kong, Sonal Kumar, S Sakshi, Jaehyeon Kim, Wei Ping, Rafael Valle, Dinesh Manocha, Bryan Catanzaro
•
Mar 6, 2025
•
23
2
Il meglio di entrambi i mondi: integrazione di modelli linguistici e modelli di diffusione per la generazione di video
The Best of Both Worlds: Integrating Language Models and Diffusion Models for Video Generation
Aoxiong Yin, Kai Shen, Yichong Leng, Xu Tan, Xinyu Zhou, Juncheng Li, Siliang Tang
•
Mar 6, 2025
•
9
1
HybridNorm: Verso un Addestramento Stabile ed Efficiente dei Transformer tramite Normalizzazione Ibrida
HybridNorm: Towards Stable and Efficient Transformer Training via Hybrid Normalization
Zhijian Zhuo, Yutao Zeng, Ya Wang, Sijun Zhang, Jian Yang, Xiaoqing Li, Xun Zhou, Jinwen Ma
•
Mar 6, 2025
•
20
8
Modelli dedicati di feedback e modifica potenziano il ridimensionamento al momento dell'inferenza per compiti aperti in domini generali.
Dedicated Feedback and Edit Models Empower Inference-Time Scaling for Open-Ended General-Domain Tasks
Zhilin Wang, Jiaqi Zeng, Olivier Delalleau, Daniel Egert, Ellie Evans, Hoo-Chang Shin, Felipe Soares, Yi Dong, Oleksii Kuchaiev
•
Mar 6, 2025
•
7
4
LINGOLY-TOO: Separare la memorizzazione dal ragionamento attraverso la templatizzazione linguistica e l'offuscamento ortografico
LINGOLY-TOO: Disentangling Memorisation from Reasoning with Linguistic Templatisation and Orthographic Obfuscation
Jude Khouja, Karolina Korgul, Simi Hellsten, Lingyi Yang, Vlad Neacs, Harry Mayne, Ryan Kearns, Andrew Bean, Adam Mahdi
•
Mar 4, 2025
•
25
3
PokéChamp: un Agente Linguistico Minimax di Livello Esperto
PokéChamp: an Expert-level Minimax Language Agent
Seth Karten, Andy Luu Nguyen, Chi Jin
•
Mar 6, 2025
•
12
2
IFIR: Un Benchmark Completo per la Valutazione del Rispetto delle Istruzioni nel Recupero delle Informazioni in Domini Specialistici
IFIR: A Comprehensive Benchmark for Evaluating Instruction-Following in Expert-Domain Information Retrieval
Tingyu Song, Guo Gan, Mingsheng Shang, Yilun Zhao
•
Mar 6, 2025
•
21
2
Identificazione dei Pesi Sensibili tramite Integrale Post-quantizzazione
Identifying Sensitive Weights via Post-quantization Integral
Yuezhou Hu, Weiyu Huang, Zichen Liang, Chang Chen, Jintao Zhang, Jun Zhu, Jianfei Chen
•
Feb 28, 2025
•
7
2
L^2M: Legge di Scalabilità dell'Informazione Mutua per la Modellazione del Linguaggio a Contesto Esteso
L^2M: Mutual Information Scaling Law for Long-Context Language Modeling
Zhuo Chen, Oriol Mayné i Comas, Zhuotao Jin, Di Luo, Marin Soljačić
•
Mar 6, 2025
•
20
2
LLM come un Telefono Rotto: La Generazione Iterativa Distorce le Informazioni
LLM as a Broken Telephone: Iterative Generation Distorts Information
Amr Mohamed, Mingmeng Geng, Michalis Vazirgiannis, Guokan Shang
•
Feb 27, 2025
•
27
2
Sull'acquisizione di rappresentazioni grammaticali condivise nei modelli linguistici bilingui
On the Acquisition of Shared Grammatical Representations in Bilingual Language Models
Catherine Arnett, Tyler A. Chang, James A. Michaelov, Benjamin K. Bergen
•
Mar 5, 2025
•
3
1
Comprensione Efficiente di Video Lunghi per Modelli Linguistici Multimodali con Ottimizzazione dei Token
Token-Efficient Long Video Understanding for Multimodal LLMs
Jindong Jiang, Xiuyu Li, Zhijian Liu, Muyang Li, Guo Chen, Zhiqi Li, De-An Huang, Guilin Liu, Zhiding Yu, Kurt Keutzer, Sungjin Ahn, Jan Kautz, Hongxu Yin, Yao Lu, Song Han, Wonmin Byeon
•
Mar 6, 2025
•
94
2
Come Orientare i Latenti dei Modelli Linguistici per il Rilevamento di Allucinazioni?
How to Steer LLM Latents for Hallucination Detection?
Seongheon Park, Xuefeng Du, Min-Hsuan Yeh, Haobo Wang, Yixuan Li
•
Mar 1, 2025
•
11
2
Unione di Esperti: Adattamento del Routing Gerarchico al Trasformatore Decomposto in Modo Equivalente
Union of Experts: Adapting Hierarchical Routing to Equivalently Decomposed Transformer
Yujiao Yang, Jing Lian, Linhui Li
•
Mar 4, 2025
•
8
4
EgoLife: Verso un Assistente Personale Egocentrico
EgoLife: Towards Egocentric Life Assistant
Jingkang Yang, Shuai Liu, Hongming Guo, Yuhao Dong, Xiamengwei Zhang, Sicheng Zhang, Pengyun Wang, Zitang Zhou, Binzhu Xie, Ziyue Wang, Bei Ouyang, Zhengyu Lin, Marco Cominelli, Zhongang Cai, Yuanhan Zhang, Peiyuan Zhang, Fangzhou Hong, Joerg Widmer, Francesco Gringoli, Lei Yang, Bo Li, Ziwei Liu
•
Mar 5, 2025
•
42
2
START: Ragionatore Autodidatta con Strumenti
START: Self-taught Reasoner with Tools
Chengpeng Li, Mingfeng Xue, Zhenru Zhang, Jiaxi Yang, Beichen Zhang, Xiang Wang, Bowen Yu, Binyuan Hui, Junyang Lin, Dayiheng Liu
•
Mar 6, 2025
•
111
6
Comprendere e Prevedere il Deragliamento nelle Conversazioni Tossiche su GitHub
Understanding and Predicting Derailment in Toxic Conversations on GitHub
Mia Mohammad Imran, Robert Zita, Rebekah Copeland, Preetha Chatterjee, Rahat Rizvi Rahman, Kostadin Damevski
•
Mar 4, 2025
•
4
2
Combinare il Flow Matching e i Transformer per una soluzione efficiente dei problemi inversi bayesiani
Combining Flow Matching and Transformers for Efficient Solution of Bayesian Inverse Problems
Daniil Sherki, Ivan Oseledets, Ekaterina Muravleva
•
Mar 3, 2025
•
5
2
Perduti nel letteralismo: come l'addestramento supervisionato plasma il translationese nei modelli linguistici di grandi dimensioni
Lost in Literalism: How Supervised Training Shapes Translationese in LLMs
Yafu Li, Ronghao Zhang, Zhilin Wang, Huajian Zhang, Leyang Cui, Yongjing Yin, Tong Xiao, Yue Zhang
•
Mar 6, 2025
•
5
2