ChatPaper.ai
Abrir Menu
Início
Artigos do Dia
arXiv
HuggingFace
Preços
Conta
Área de trabalho
🇬🇧
English
Loading...
•
•
•
•
•
•
•
•
•
•
Artigos de Pesquisa em IA Diários
Artigos de pesquisa em IA selecionados diariamente com traduções
October 11th, 2024
Consultor de Dados: Curadoria Dinâmica de Dados para Alinhamento de Segurança de Modelos de Linguagem Grandes
Data Advisor: Dynamic Data Curation for Safety Alignment of Large Language Models
Fei Wang, Ninareh Mehrabi, Palash Goyal, Rahul Gupta, Kai-Wei Chang, Aram Galstyan
•
Oct 7, 2024
•
3
2
DART: Transformer Autoregressivo de Desnvolvimento para Geração Escalável de Texto-para-Imagem
DART: Denoising Autoregressive Transformer for Scalable Text-to-Image Generation
Jiatao Gu, Yuyang Wang, Yizhe Zhang, Qihang Zhang, Dinghuai Zhang, Navdeep Jaitly, Josh Susskind, Shuangfei Zhai
•
Oct 10, 2024
•
25
2
Vector-ICL: Aprendizado em Contexto com Representações Vetoriais Contínuas
Vector-ICL: In-context Learning with Continuous Vector Representations
Yufan Zhuang, Chandan Singh, Liyuan Liu, Jingbo Shang, Jianfeng Gao
•
Oct 8, 2024
•
3
3
Avaliação da Geração de Fluxo de Trabalho Agente.
Benchmarking Agentic Workflow Generation
Shuofei Qiao, Runnan Fang, Zhisong Qiu, Xiaobin Wang, Ningyu Zhang, Yong Jiang, Pengjun Xie, Fei Huang, Huajun Chen
•
Oct 10, 2024
•
27
2
Tudo em Todo Lugar de Uma Vez: LLMs podem Aprender Múltiplas Tarefas em Contexto em Superposição
Everything Everywhere All at Once: LLMs can In-Context Learn Multiple Tasks in Superposition
Zheyang Xiong, Ziyang Cai, John Cooper, Albert Ge, Vasilis Papageorgiou, Zack Sifakis, Angeliki Giannou, Ziqian Lin, Liu Yang, Saurabh Agarwal, Grigorios G Chrysos, Samet Oymak, Kangwook Lee, Dimitris Papailiopoulos
•
Oct 8, 2024
•
11
2
DICE: Inversão Discreta Permitindo Edição Controlável para Difusão Multinomial e Modelos Generativos Mascaramentos
DICE: Discrete Inversion Enabling Controllable Editing for Multinomial Diffusion and Masked Generative Models
Xiaoxiao He, Ligong Han, Quan Dao, Song Wen, Minhao Bai, Di Liu, Han Zhang, Martin Renqiang Min, Felix Juefei-Xu, Chaowei Tan, Bo Liu, Kang Li, Hongdong Li, Junzhou Huang, Faez Ahmed, Akash Srivastava, Dimitris Metaxas
•
Oct 10, 2024
•
19
2
Preservação das Capacidades Multi-Modais de VLMs Pré-treinados para Melhorar a Composicionalidade Visão-Linguística
Preserving Multi-Modal Capabilities of Pre-trained VLMs for Improving Vision-Linguistic Compositionality
Youngtaek Oh, Jae Won Cho, Dong-Jin Kim, In So Kweon, Junmo Kim
•
Oct 7, 2024
•
11
3
Optima: Otimizando a Efetividade e Eficiência para um Sistema Multiagente Baseado em LLM
Optima: Optimizing Effectiveness and Efficiency for LLM-Based Multi-Agent System
Weize Chen, Jiarui Yuan, Chen Qian, Cheng Yang, Zhiyuan Liu, Maosong Sun
•
Oct 10, 2024
•
8
2
Difusão Retificada: Retidão Não é Necessária em Fluxo Retificado
Rectified Diffusion: Straightness Is Not Your Need in Rectified Flow
Fu-Yun Wang, Ling Yang, Zhaoyang Huang, Mengdi Wang, Hongsheng Li
•
Oct 9, 2024
•
18
3
LPZero: Modelo de Linguagem de Procura de Proxy sem Custo a partir do Zero
LPZero: Language Model Zero-cost Proxy Search from Zero
Peijie Dong, Lujun Li, Xiang Liu, Zhenheng Tang, Xuebo Liu, Qiang Wang, Xiaowen Chu
•
Oct 7, 2024
•
2
2
MLLM como Recuperador: Aprendizado Interativo de Recuperação Multimodal para Agentes Incorporados
MLLM as Retriever: Interactively Learning Multimodal Retrieval for Embodied Agents
Junpeng Yue, Xinru Xu, Börje F. Karlsson, Zongqing Lu
•
Oct 4, 2024
•
37
2
MathCoder2: Melhor Raciocínio Matemático a partir de Pré-treinamento Contínuo em Código Matemático Traduzido pelo Modelo
MathCoder2: Better Math Reasoning from Continued Pretraining on Model-translated Mathematical Code
Zimu Lu, Aojun Zhou, Ke Wang, Houxing Ren, Weikang Shi, Junting Pan, Mingjie Zhan, Hongsheng Li
•
Oct 10, 2024
•
47
2
Modelos de Difusão de Vídeo Autoregressivos Progressivos
Progressive Autoregressive Video Diffusion Models
Desai Xie, Zhan Xu, Yicong Hong, Hao Tan, Difan Liu, Feng Liu, Arie Kaufman, Yang Zhou
•
Oct 10, 2024
•
16
4
Fraudando Referenciais Automáticos LLM: Modelos Nulos Alcançam Altas Taxas de Vitória
Cheating Automatic LLM Benchmarks: Null Models Achieve High Win Rates
Xiaosen Zheng, Tianyu Pang, Chao Du, Qian Liu, Jing Jiang, Min Lin
•
Oct 9, 2024
•
7
2
Zebra: Pré-treinamento Contextual e Generativo para Resolver EDPs Paramétricas
Zebra: In-Context and Generative Pretraining for Solving Parametric PDEs
Louis Serrano, Armand Kassaï Koupaï, Thomas X Wang, Pierre Erbacher, Patrick Gallinari
•
Oct 4, 2024
•
2
2
Propriedades Intrigantes de Modelos de Linguagem e Visão de Grande Escala
Intriguing Properties of Large Language and Vision Models
Young-Jun Lee, Byungsoo Ko, Han-Gyu Kim, Yechan Hwang, Ho-Jin Choi
•
Oct 7, 2024
•
16
4
Agente S: Um Framework Agente Aberto que Utiliza Computadores Como um Humano
Agent S: An Open Agentic Framework that Uses Computers Like a Human
Saaket Agashe, Jiuzhou Han, Shuyu Gan, Jiachen Yang, Ang Li, Xin Eric Wang
•
Oct 10, 2024
•
24
2
Propriedades emergentes com exemplos repetidos
Emergent properties with repeated examples
François Charton, Julia Kempe
•
Oct 9, 2024
•
8
3
Rumo à Autoaperfeiçoamento de LLMs via MCTS: Alavancando Conhecimento Passo a Passo com Aprendizado de Preferência de Currículo
Towards Self-Improvement of LLMs via MCTS: Leveraging Stepwise Knowledge with Curriculum Preference Learning
Xiyao Wang, Linfeng Song, Ye Tian, Dian Yu, Baolin Peng, Haitao Mi, Furong Huang, Dong Yu
•
Oct 9, 2024
•
10
2
PrefixQuant: Quantização Estática Supera a Dinâmica através de Valores Atípicos Prefixados em LLMs
PrefixQuant: Static Quantization Beats Dynamic through Prefixed Outliers in LLMs
Mengzhao Chen, Yi Liu, Jiahao Wang, Yi Bin, Wenqi Shao, Ping Luo
•
Oct 7, 2024
•
31
2
WALL-E: Alinhamento Mundial por Aprendizado de Regras Melhora Agentes LLM Baseados em Modelo Mundial
WALL-E: World Alignment by Rule Learning Improves World Model-based LLM Agents
Siyu Zhou, Tianyi Zhou, Yijun Yang, Guodong Long, Deheng Ye, Jing Jiang, Chengqi Zhang
•
Oct 9, 2024
•
51
3
SFTMix: Elevando o Ajuste de Instruções do Modelo de Linguagem com a Receita Mixup
SFTMix: Elevating Language Model Instruction Tuning with Mixup Recipe
Yuxin Xiao, Shujian Zhang, Wenxuan Zhou, Marzyeh Ghassemi, Sanqiang Zhao
•
Oct 7, 2024
•
8
2
Expandindo seus Kernels: Design de Kernels Grandes em ConvNets em direção a Representações Universais
Scaling Up Your Kernels: Large Kernel Design in ConvNets towards Universal Representations
Yiyuan Zhang, Xiaohan Ding, Xiangyu Yue
•
Oct 10, 2024
•
8
2
Otimização Acelerada de Preferências para Alinhamento de Modelos de Linguagem de Grande Escala
Accelerated Preference Optimization for Large Language Model Alignment
Jiafan He, Huizhuo Yuan, Quanquan Gu
•
Oct 8, 2024
•
5
2
GLOV: Modelos de Linguagem Grandes Guiados como Otimizadores Implícitos para Visão
GLOV: Guided Large Language Models as Implicit Optimizers for Vision Language Models
M. Jehanzeb Mirza, Mengjie Zhao, Zhuoyuan Mao, Sivan Doveh, Wei Lin, Paul Gavrikov, Michael Dorkenwald, Shiqi Yang, Saurav Jha, Hiromi Wakaki, Yuki Mitsufuji, Horst Possegger, Rogerio Feris, Leonid Karlinsky, James Glass
•
Oct 8, 2024
•
16
2
MotionGS: Explorando Orientação de Movimento Explícito para Espalhamento Gaussiano 3D Deformável
MotionGS: Exploring Explicit Motion Guidance for Deformable 3D Gaussian Splatting
Ruijie Zhu, Yanzhe Liang, Hanzhi Chang, Jiacheng Deng, Jiahao Lu, Wenfei Yang, Tianzhu Zhang, Yongdong Zhang
•
Oct 10, 2024
•
3
2