ChatPaper.ai
Apri menu
Home
Articoli del Giorno
arXiv
HuggingFace
Prezzi
Account
Spazio di lavoro
🇬🇧
English
Loading...
•
•
•
•
•
•
•
•
•
•
Articoli di Ricerca IA Giornalieri
Articoli di ricerca IA selezionati quotidianamente con traduzioni
February 11th, 2025
MetaChain: un framework completamente automatizzato e senza codice per agenti LLM.
MetaChain: A Fully-Automated and Zero-Code Framework for LLM Agents
Jiabin Tang, Tianyu Fan, Chao Huang
•
Feb 9, 2025
•
16
2
Diffusione Video Guidata dalla Storia
History-Guided Video Diffusion
Kiwhan Song, Boyuan Chen, Max Simchowitz, Yilun Du, Russ Tedrake, Vincent Sitzmann
•
Feb 10, 2025
•
12
2
Steel-LLM: Dalle basi all'open source - Un viaggio personale nella costruzione di un LLM centrato sulla lingua cinese
Steel-LLM:From Scratch to Open Source -- A Personal Journey in Building a Chinese-Centric LLM
Qingshui Gu, Shu Li, Tianyu Zheng, Zhaoxiang Zhang
•
Feb 10, 2025
•
4
2
APE: Generazione più veloce e prolungata con contesto ampliato tramite Codifica Parallela Adattiva
APE: Faster and Longer Context-Augmented Generation via Adaptive Parallel Encoding
Xinyu Yang, Tianqi Chen, Beidi Chen
•
Feb 8, 2025
•
6
4
La Maledizione della Profondità nei Grandi Modelli Linguistici
The Curse of Depth in Large Language Models
Wenfang Sun, Xinyuan Song, Pengxiang Li, Lu Yin, Yefeng Zheng, Shiwei Liu
•
Feb 9, 2025
•
39
5
Accelerazione senza perdita di modelli linguistici di grandi dimensioni con Bozze Gerarchiche basate sulla Località Temporale nella Decodifica Speculativa
Lossless Acceleration of Large Language Models with Hierarchical Drafting based on Temporal Locality in Speculative Decoding
Sukmin Cho, Sangjin Choi, Taeho Hwang, Jeongyeon Seo, Soyeong Jeong, Huije Lee, Hoyun Song, Jong C. Park, Youngjin Kwon
•
Feb 8, 2025
•
18
3
CustomVideoX: Adattamento Dinamico Guidato dall'Attenzione di Riferimento 3D per Trasformatori di Diffusione Video Personalizzati a Zero Shot
CustomVideoX: 3D Reference Attention Driven Dynamic Adaptation for Zero-Shot Customized Video Diffusion Transformers
D. She, Mushui Liu, Jingxuan Pang, Jin Wang, Zhen Yang, Wanggui He, Guanghao Zhang, Yi Wang, Qihan Huang, Haobin Tang, Yunlong Yu, Siming Fu
•
Feb 10, 2025
•
11
2
Può un LLM da 1 miliardo superare un LLM da 405 miliardi? Riconsiderazione della scalabilità ottimale del calcolo al momento del test.
Can 1B LLM Surpass 405B LLM? Rethinking Compute-Optimal Test-Time Scaling
Runze Liu, Junqi Gao, Jian Zhao, Kaiyan Zhang, Xiu Li, Biqing Qi, Wanli Ouyang, Bowen Zhou
•
Feb 10, 2025
•
151
6
Jakiro: Potenziare la decodifica speculativa con Multi-Head disaccoppiato tramite MoE
Jakiro: Boosting Speculative Decoding with Decoupled Multi-Head via MoE
Haiduo Huang, Fuwei Yang, Zhenhua Liu, Yixing Xu, Jinze Li, Yang Liu, Xuanwu Yin, Dong Li, Pengju Ren, Emad Barsoum
•
Feb 10, 2025
•
5
2
Verso l'Addestramento su Internet su Larga Scala per Agenti
Towards Internet-Scale Training For Agents
Brandon Trabucco, Gunnar Sigurdsson, Robinson Piramuthu, Ruslan Salakhutdinov
•
Feb 10, 2025
•
8
2
Ottimizzazione delle Preferenze delle Didascalie Duali per i Modelli di Diffusione
Dual Caption Preference Optimization for Diffusion Models
Amir Saeidi, Yiran Luo, Agneet Chatterjee, Shamanthak Hegde, Bimsara Pathiraja, Yezhou Yang, Chitta Baral
•
Feb 9, 2025
•
9
2
LM2: Modelli con Ampia Memoria
LM2: Large Memory Models
Jikun Kang, Wenqi Wu, Filippos Christianos, Alex J. Chan, Fraser Greenlee, George Thomas, Marvin Purtorab, Andy Toulis
•
Feb 9, 2025
•
30
7
DreamDPO: Allineare la Generazione di Testo-3D con le Preferenze Umane tramite Ottimizzazione Diretta delle Preferenze
DreamDPO: Aligning Text-to-3D Generation with Human Preferences via Direct Preference Optimization
Zhenglin Zhou, Xiaobo Xia, Fan Ma, Hehe Fan, Yi Yang, Tat-Seng Chua
•
Feb 5, 2025
•
7
2
Esplorare il Limite della Ricompensa dell'Esito per l'Apprendimento del Ragionamento Matematico
Exploring the Limit of Outcome Reward for Learning Mathematical Reasoning
Chengqi Lyu, Songyang Gao, Yuzhe Gu, Wenwei Zhang, Jianfei Gao, Kuikun Liu, Ziyi Wang, Shuaibin Li, Qian Zhao, Haian Huang, Weihan Cao, Jiangning Liu, Hongwei Liu, Junnan Liu, Songyang Zhang, Dahua Lin, Kai Chen
•
Feb 10, 2025
•
61
6
Addestramento di modelli linguistici per la deduzione sociale con Apprendimento per Rinforzo Multi-Agente.
Training Language Models for Social Deduction with Multi-Agent Reinforcement Learning
Bidipta Sarkar, Warren Xia, C. Karen Liu, Dorsa Sadigh
•
Feb 9, 2025
•
38
3
La Vita Nascosta dei Token: Riduzione dell'Allucinazione dei Grandi Modelli Visione-Linguaggio tramite Indirizzamento delle Informazioni Visive
The Hidden Life of Tokens: Reducing Hallucination of Large Vision-Language Models via Visual Information Steering
Zhuowei Li, Haizhou Shi, Yunhe Gao, Di Liu, Zhenting Wang, Yuxiao Chen, Ting Liu, Long Zhao, Hao Wang, Dimitris N. Metaxas
•
Feb 5, 2025
•
12
3
Efficient-vDiT: Trasformatori di Diffusione Video Efficienti con Attenzione a Piastrella
Efficient-vDiT: Efficient Video Diffusion Transformers With Attention Tile
Hangliang Ding, Dacheng Li, Runlong Su, Peiyuan Zhang, Zhijie Deng, Ion Stoica, Hao Zhang
•
Feb 10, 2025
•
10
2
ReasonFlux: Ragionamento LLM Gerarchico tramite la Scalabilità dei Modelli di Pensiero
ReasonFlux: Hierarchical LLM Reasoning via Scaling Thought Templates
Ling Yang, Zhaochen Yu, Bin Cui, Mengdi Wang
•
Feb 10, 2025
•
21
3
SynthDetoxM: I moderni LLM sono dati di disintossicazione paralleli a pochi scatti per annotatori
SynthDetoxM: Modern LLMs are Few-Shot Parallel Detoxification Data Annotators
Daniil Moskovskiy, Nikita Sushko, Sergey Pletenev, Elena Tutubalina, Alexander Panchenko
•
Feb 10, 2025
•
90
2
Quantizzazione Matryoshka
Matryoshka Quantization
Pranav Nair, Puranjay Datta, Jeff Dean, Prateek Jain, Aditya Kusupati
•
Feb 10, 2025
•
30
4
Show-o Turbo: Verso un'Accelerazione dell'Integrazione Unificata Multimodale nella Comprensione e Generazione
Show-o Turbo: Towards Accelerated Unified Multimodal Understanding and Generation
Chenkai Xu, Xu Wang, Zhenyi Liao, Yishun Li, Tianqi Hou, Zhijie Deng
•
Feb 8, 2025
•
22
2
CODESIM: Generazione di Codice Multi-Agente e Risoluzione di Problemi tramite Pianificazione e Debugging basati su Simulazione
CODESIM: Multi-Agent Code Generation and Problem Solving through Simulation-Driven Planning and Debugging
Md. Ashraful Islam, Mohammed Eunus Ali, Md Rizwan Parvez
•
Feb 8, 2025
•
23
3
EVEv2: Miglioramento delle basi per i modelli di visione-linguaggio senza codificatore
EVEv2: Improved Baselines for Encoder-Free Vision-Language Models
Haiwen Diao, Xiaotong Li, Yufeng Cui, Yueze Wang, Haoge Deng, Ting Pan, Wenxuan Wang, Huchuan Lu, Xinlong Wang
•
Feb 10, 2025
•
12
2
Auditazione Incarnata del Red Teaming per i Modelli Fondamentali dei Robot
Embodied Red Teaming for Auditing Robotic Foundation Models
Sathwik Karnik, Zhang-Wei Hong, Nishant Abhangi, Yen-Chen Lin, Tsun-Hsuan Wang, Christophe Dupuy, Rahul Gupta, Pulkit Agrawal
•
Nov 27, 2024
•
2
2
Scienza Proibita: Sfida del Benchmark e Test di Rifiuto Scientifico dell'IA a Doppio Uso
Forbidden Science: Dual-Use AI Challenge Benchmark and Scientific Refusal Tests
David Noever, Forrest McKee
•
Feb 8, 2025
•
1
2
Lumina-Video: Generazione efficiente e flessibile di video con Multi-scale Next-DiT
Lumina-Video: Efficient and Flexible Video Generation with Multi-scale Next-DiT
Dongyang Liu, Shicheng Li, Yutong Liu, Zhen Li, Kai Wang, Xinyue Li, Qi Qin, Yufei Liu, Yi Xin, Zhongyu Li, Bin Fu, Chenyang Si, Yuewen Cao, Conghui He, Ziwei Liu, Yu Qiao, Qibin Hou, Hongsheng Li, Peng Gao
•
Feb 10, 2025
•
14
2