ChatPaper.ai
Apri menu
Home
Articoli del Giorno
arXiv
HuggingFace
Prezzi
Account
Spazio di lavoro
🇬🇧
English
Loading...
•
•
•
•
•
•
•
•
•
•
Articoli di Ricerca IA Giornalieri
Articoli di ricerca IA selezionati quotidianamente con traduzioni
February 18th, 2025
Modelli Linguistici di Grandi Dimensioni e Fallimenti nel Ragionamento Matematico
Large Language Models and Mathematical Reasoning Failures
Johan Boye, Birger Moell
•
Feb 17, 2025
•
3
3
EQ-VAE: Spazio Latente Regolarizzato per l'Equivarianza per un Miglior Modellamento Generativo di Immagini
EQ-VAE: Equivariance Regularized Latent Space for Improved Generative Image Modeling
Theodoros Kouzelis, Ioannis Kakogeorgiou, Spyros Gidaris, Nikos Komodakis
•
Feb 13, 2025
•
7
2
Dyve: Pensare Veloce e Lento per la Verifica Dinamica dei Processi
Dyve: Thinking Fast and Slow for Dynamic Process Verification
Jianyuan Zhong, Zeju Li, Zhijian Xu, Xiangyu Wen, Qiang Xu
•
Feb 16, 2025
•
7
2
Migliori Embedding con Adam Accoppiato
Better Embeddings with Coupled Adam
Felix Stollenwerk, Tobias Stollenwerk
•
Feb 12, 2025
•
1
3
L'illusione della modifica del modello: Ripensare la valutazione in contesti reali
The Mirage of Model Editing: Revisiting Evaluation in the Wild
Wanli Yang, Fei Sun, Jiajun Tan, Xinyu Ma, Qi Cao, Dawei Yin, Huawei Shen, Xueqi Cheng
•
Feb 16, 2025
•
10
2
Verso un Pretraining Efficiente in Termini di Dati per la Previsione di Proprietà Atomiche
Towards Data-Efficient Pretraining for Atomic Property Prediction
Yasir Ghunaim, Hasan Abed Al Kader Hammoud, Bernard Ghanem
•
Feb 16, 2025
•
3
3
ReLearn: Disapprendere attraverso l'apprendimento per i Modelli Linguistici di Grandi Dimensioni
ReLearn: Unlearning via Learning for Large Language Models
Haoming Xu, Ningyuan Zhao, Liming Yang, Sendong Zhao, Shumin Deng, Mengru Wang, Bryan Hooi, Nay Oo, Huajun Chen, Ningyu Zhang
•
Feb 16, 2025
•
29
2
Modelli di Diffusione senza Guida Libera da Classificatore
Diffusion Models without Classifier-free Guidance
Zhicong Tang, Jianmin Bao, Dong Chen, Baining Guo
•
Feb 17, 2025
•
7
2
Memoria, Benchmark e Robot: Un Benchmark per la Risoluzione di Compiti Complessi con Apprendimento per Rinforzo
Memory, Benchmark & Robots: A Benchmark for Solving Complex Tasks with Reinforcement Learning
Egor Cherepanov, Nikita Kachaev, Alexey K. Kovalev, Aleksandr I. Panov
•
Feb 14, 2025
•
5
2
La misurazione della complessità linguistica come proxy rumoroso zero-shot per la valutazione delle prestazioni dei LLM
Language Complexity Measurement as a Noisy Zero-Shot Proxy for Evaluating LLM Performance
Birger Moell, Johan Boye
•
Feb 17, 2025
•
0
2
Mostrami il Lavoro: Requisiti dei Fact-Checker per il Fact-Checking Automatico Spiegabile
Show Me the Work: Fact-Checkers' Requirements for Explainable Automated Fact-Checking
Greta Warren, Irina Shklovski, Isabelle Augenstein
•
Feb 13, 2025
•
4
2
Diffusion-Sharpening: Affinamento di Modelli di Diffusione con Affilatura della Traiettoria di Denoising
Diffusion-Sharpening: Fine-tuning Diffusion Models with Denoising Trajectory Sharpening
Ye Tian, Ling Yang, Xinchen Zhang, Yunhai Tong, Mengdi Wang, Bin Cui
•
Feb 17, 2025
•
16
3
SAFE-SQL: Apprendimento In-Context Auto-Aumentato con Selezione Fine-Granularità di Esempi per Text-to-SQL
SAFE-SQL: Self-Augmented In-Context Learning with Fine-grained Example Selection for Text-to-SQL
Jimin Lee, Ingeol Baek, Byeongjeong Kim, Hwanhee Lee
•
Feb 17, 2025
•
7
2
Explorer: Scalabilità della Sintesi di Traiettorie Web Guidate dall'Esplorazione per Agenti Web Multimodali
Explorer: Scaling Exploration-driven Web Trajectory Synthesis for Multimodal Web Agents
Vardaan Pahuja, Yadong Lu, Corby Rosset, Boyu Gou, Arindam Mitra, Spencer Whitehead, Yu Su, Ahmed Awadallah
•
Feb 17, 2025
•
10
2
Costruire un Programmatore Orientato alle Dimostrazioni che è il 64% Migliore di GPT-4o in Condizioni di Scarsità di Dati
Building A Proof-Oriented Programmer That Is 64% Better Than GPT-4o Under Data Scarsity
Dylan Zhang, Justin Wang, Tianran Sun
•
Feb 17, 2025
•
6
2
Un Esempio Mostrato, Molti Concetti Compresi! Ragionamento Concettuale Guidato da Controesempi nei Modelli Linguistici Matematici
One Example Shown, Many Concepts Known! Counterexample-Driven Conceptual Reasoning in Mathematical LLMs
Yinghui Li, Jiayi Kuang, Haojing Huang, Zhikun Xu, Xinnian Liang, Yi Yu, Wenlian Lu, Yangning Li, Xiaoyu Tan, Chao Qu, Ying Shen, Hai-Tao Zheng, Philip S. Yu
•
Feb 12, 2025
•
7
2
PhysReason: Un Benchmark Completo per il Ragionamento Basato sulla Fisica
PhysReason: A Comprehensive Benchmark towards Physics-Based Reasoning
Xinyu Zhang, Yuxuan Dong, Yanrui Wu, Jiaxing Huang, Chengyou Jia, Basura Fernando, Mike Zheng Shou, Lingling Zhang, Jun Liu
•
Feb 17, 2025
•
7
2
video-SALMONN-o1: Modello Linguistico Multimodale Audio-Visivo Potenziato per il Ragionamento
video-SALMONN-o1: Reasoning-enhanced Audio-visual Large Language Model
Guangzhi Sun, Yudong Yang, Jimin Zhuang, Changli Tang, Yixuan Li, Wei Li, Zejun MA, Chao Zhang
•
Feb 17, 2025
•
8
2
Cuckoo: Un Free Rider dell'IE Nato dalla Massiccia Nutrizione nel Nido degli LLM
Cuckoo: An IE Free Rider Hatched by Massive Nutrition in LLM's Nest
Letian Peng, Zilong Wang, Feng Yao, Jingbo Shang
•
Feb 16, 2025
•
6
2
Chiedi in Qualsiasi Modalità: Un'Indagine Completa sulla Generazione Aumentata dal Recupero Multimodale
Ask in Any Modality: A Comprehensive Survey on Multimodal Retrieval-Augmented Generation
Mohammad Mahdi Abootorabi, Amirhosein Zobeiri, Mahdi Dehghani, Mohammadali Mohammadkhani, Bardia Mohammadi, Omid Ghahroodi, Mahdieh Soleymani Baghshah, Ehsaneddin Asgari
•
Feb 12, 2025
•
17
2
Penso, quindi Diffondo: Abilitare il Ragionamento Multimodale in Contesto nei Modelli di Diffusione
I Think, Therefore I Diffuse: Enabling Multimodal In-Context Reasoning in Diffusion Models
Zhenxing Mi, Kuan-Chieh Wang, Guocheng Qian, Hanrong Ye, Runtao Liu, Sergey Tulyakov, Kfir Aberman, Dan Xu
•
Feb 12, 2025
•
35
3
Come i Modelli Linguistici di Grande Dimensione Acquisiscono Nuove Conoscenze? Una Prospettiva sui Circuiti di Conoscenza nell'Addestramento Continuo Precedente
How Do LLMs Acquire New Knowledge? A Knowledge Circuits Perspective on Continual Pre-Training
Yixin Ou, Yunzhi Yao, Ningyu Zhang, Hui Jin, Jiacheng Sun, Shumin Deng, Zhenguo Li, Huajun Chen
•
Feb 16, 2025
•
22
6
Generazione di Messaggi di Sistema per le Preferenze degli Utenti Utilizzando Modelli Open-Source
System Message Generation for User Preferences using Open-Source Models
Minbyul Jeong, Jungho Cho, Minsoo Khang, Dawoon Jung, Teakgyu Hong
•
Feb 17, 2025
•
15
2
Apprendimento di Politiche per Alzarsi per Robot Umanoidi nel Mondo Reale
Learning Getting-Up Policies for Real-World Humanoid Robots
Xialin He, Runpei Dong, Zixuan Chen, Saurabh Gupta
•
Feb 17, 2025
•
42
3
ILIAS: Recupero di immagini a livello di istanza su larga scala
ILIAS: Instance-Level Image retrieval At Scale
Giorgos Kordopatis-Zilos, Vladan Stojnić, Anna Manko, Pavel Šuma, Nikolaos-Antonios Ypsilantis, Nikos Efthymiadis, Zakaria Laskar, Jiří Matas, Ondřej Chum, Giorgos Tolias
•
Feb 17, 2025
•
4
2
Attenzione Sparse Nativa: Attenzione Sparse Allineata all'Hardware e Addestrabile in Modo Nativo
Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention
Jingyang Yuan, Huazuo Gao, Damai Dai, Junyu Luo, Liang Zhao, Zhengyan Zhang, Zhenda Xie, Y. X. Wei, Lean Wang, Zhiping Xiao, Yuqing Wang, Chong Ruan, Ming Zhang, Wenfeng Liang, Wangding Zeng
•
Feb 16, 2025
•
155
10
CRANE: Ragionamento con generazione vincolata di LLM
CRANE: Reasoning with constrained LLM generation
Debangshu Banerjee, Tarun Suresh, Shubham Ugare, Sasa Misailovic, Gagandeep Singh
•
Feb 13, 2025
•
19
2
IHEval: Valutazione dei Modelli Linguistici nel Seguire la Gerarchia delle Istruzioni
IHEval: Evaluating Language Models on Following the Instruction Hierarchy
Zhihan Zhang, Shiyang Li, Zixuan Zhang, Xin Liu, Haoming Jiang, Xianfeng Tang, Yifan Gao, Zheng Li, Haodong Wang, Zhaoxuan Tan, Yichuan Li, Qingyu Yin, Bing Yin, Meng Jiang
•
Feb 12, 2025
•
19
2
Sailor2: Navigare nel Sud-Est asiatico con LLM multilingue inclusivi
Sailor2: Sailing in South-East Asia with Inclusive Multilingual LLMs
Longxu Dou, Qian Liu, Fan Zhou, Changyu Chen, Zili Wang, Ziqi Jin, Zichen Liu, Tongyao Zhu, Cunxiao Du, Penghui Yang, Haonan Wang, Jiaheng Liu, Yongchi Zhao, Xiachong Feng, Xin Mao, Man Tsung Yeung, Kunat Pipatanakul, Fajri Koto, Min Si Thu, Hynek Kydlíček, Zeyi Liu, Qunshu Lin, Sittipong Sripaisarnmongkol, Kridtaphad Sae-Khow, Nirattisai Thongchim, Taechawat Konkaew, Narong Borijindargoon, Anh Dao, Matichon Maneegard, Phakphum Artkaew, Zheng-Xin Yong, Quan Nguyen, Wannaphong Phatthiyaphaibun, Hoang H. Tran, Mike Zhang, Shiqi Chen, Tianyu Pang, Chao Du, Xinyi Wan, Wei Lu, Min Lin
•
Feb 18, 2025
•
17
4
Un singolo modello può padroneggiare sia conversazioni multi-turn che l'uso di strumenti? CALM: Un modello linguistico agente conversazionale unificato
Can a Single Model Master Both Multi-turn Conversations and Tool Use? CALM: A Unified Conversational Agentic Language Model
Emre Can Acikgoz, Jeremiah Greer, Akul Datta, Ze Yang, William Zeng, Oussama Elachqar, Emmanouil Koukoumidis, Dilek Hakkani-Tür, Gokhan Tur
•
Feb 12, 2025
•
5
2
ExaGPT: Rilevazione di Testo Generato da Macchina Basata su Esempi per l'Interpretabilità Umana
ExaGPT: Example-Based Machine-Generated Text Detection for Human Interpretability
Ryuto Koike, Masahiro Kaneko, Ayana Niwa, Preslav Nakov, Naoaki Okazaki
•
Feb 17, 2025
•
1
2
Valutazione dei Dati mediante Reti Neurali per un Affinamento Efficiente delle Istruzioni
Data Valuation using Neural Networks for Efficient Instruction Fine-Tuning
Ishika Agarwal, Dilek Hakkani-Tür
•
Feb 14, 2025
•
1
2
La comprensione intuitiva della fisica emerge da un preaddestramento auto-supervisionato su video naturali.
Intuitive physics understanding emerges from self-supervised pretraining on natural videos
Quentin Garrido, Nicolas Ballas, Mahmoud Assran, Adrien Bardes, Laurent Najman, Michael Rabbat, Emmanuel Dupoux, Yann LeCun
•
Feb 17, 2025
•
19
2
Parla Strutturalmente, Agisci Gerarchicamente: Un Framework Collaborativo per Sistemi Multi-Agente basati su LLM
Talk Structurally, Act Hierarchically: A Collaborative Framework for LLM Multi-Agent Systems
Zhao Wang, Sota Moriyama, Wei-Yao Wang, Briti Gangopadhyay, Shingo Takamatsu
•
Feb 16, 2025
•
13
2
SWE-Lancer: I modelli linguistici all'avanguardia possono guadagnare 1 milione di dollari con l'ingegneria del software freelance nel mondo reale?
SWE-Lancer: Can Frontier LLMs Earn $1 Million from Real-World Freelance Software Engineering?
Samuel Miserendino, Michele Wang, Tejal Patwardhan, Johannes Heidecke
•
Feb 17, 2025
•
45
5
SURGE: Sul Potenziale dei Modelli Linguistici di Grande Scala come Esecutori Surrogati a Scopo Generale per il Codice
SURGE: On the Potential of Large Language Models as General-Purpose Surrogate Code Executors
Bohan Lyu, Siqiao Huang, Zichen Liang
•
Feb 16, 2025
•
10
2
MagicArticulate: Rendi i tuoi Modelli 3D Pronti per l'Articolazione
MagicArticulate: Make Your 3D Models Articulation-Ready
Chaoyue Song, Jianfeng Zhang, Xiu Li, Fan Yang, Yiwen Chen, Zhongcong Xu, Jun Hao Liew, Xiaoyang Guo, Fayao Liu, Jiashi Feng, Guosheng Lin
•
Feb 17, 2025
•
8
2
HermesFlow: Colmare senza soluzione di continuità il divario nella comprensione e generazione multimodale
HermesFlow: Seamlessly Closing the Gap in Multimodal Understanding and Generation
Ling Yang, Xinchen Zhang, Ye Tian, Chenming Shang, Minghao Xu, Wentao Zhang, Bin Cui
•
Feb 17, 2025
•
16
2