ChatPaper.aiChatPaper.ai
Accueil

arXiv

HuggingFace

TarifsCompteEspace de travail

•
•

•
•

•
•

•
•

•
•

Footer

Company name

ChatPaper.ai: Your advanced AI reading assistant.

Contact us: [email protected]

X (Twitter)

Products

  • AI Search
  • AI Mind Map
  • Arxiv Summary
  • Huggingface Summary

Support

  • FAQ
  • Contact

Company

  • Blog
  • Privacy Policy
  • Terms of Service

Available Languages

  • 🇬🇧English
  • 🇨🇳中文简体
  • 🇭🇰繁體中文
  • 🇯🇵日本語
  • 🇰🇷한국어
  • 🇩🇪Deutsch
  • 🇫🇷Français
  • 🇷🇺Русский
  • 🇪🇸Español

© 2025 chatpaper.ai All rights reserved.

Articles de Recherche en IA Quotidiens

Articles de recherche en IA sélectionnés quotidiennement avec traductions

Mixture-of-Depths : Allocation dynamique des ressources de calcul dans les modèles de langage basés sur les transformers
Mixture-of-Depths: Dynamically allocating compute in transformer-based language models

David Raposo, Sam Ritter, Blake Richards, Timothy Lillicrap, Peter Conway Humphreys, Adam Santoro•Apr 2, 2024•1067

Modélisation Autoregressive Visuelle : Génération d'Images Scalable via la Prédiction à l'Échelle Suivante
Visual Autoregressive Modeling: Scalable Image Generation via Next-Scale Prediction

Keyu Tian, Yi Jiang, Zehuan Yuan, Bingyue Peng, Liwei Wang•Apr 3, 2024•713

Les modèles de langage en tant que compilateurs : la simulation de l'exécution de pseudocode améliore le raisonnement algorithmique dans les modèles de langage
Language Models as Compilers: Simulating Pseudocode Execution Improves Algorithmic Reasoning in Language Models

Hyungjoo Chae, Yeonghyeon Kim, Seungone Kim, Kai Tzu-iunn Ong, Beong-woo Kwak, Moohyeon Kim, Seonghwan Kim, Taeyoon Kwon, Jiwan Chung, Youngjae Yu, Jinyoung Yeo•Apr 3, 2024•519

ChatGLM-Math : Amélioration de la résolution de problèmes mathématiques dans les grands modèles de langage grâce à un pipeline d'autocritique
ChatGLM-Math: Improving Math Problem-Solving in Large Language Models with a Self-Critique Pipeline

Yifan Xu, Xiao Liu, Xinghan Liu, Zhenyu Hou, Yueyan Li, Xiaohan Zhang, Zihan Wang, Aohan Zeng, Zhengxiao Du, Wenyi Zhao, Jie Tang, Yuxiao Dong•Apr 3, 2024•232

InstantStyle : Une solution simple pour préserver le style dans la génération texte-image
InstantStyle: Free Lunch towards Style-Preserving in Text-to-Image Generation

Haofan Wang, Qixun Wang, Xu Bai, Zekui Qin, Anthony Chen•Apr 3, 2024•235

Sur l'évolutivité de la génération d'images à partir de texte basée sur la diffusion
On the Scalability of Diffusion-based Text-to-Image Generation

Hao Li, Yang Zou, Ying Wang, Orchid Majumder, Yusheng Xie, R. Manmatha, Ashwin Swaminathan, Zhuowen Tu, Stefano Ermon, Stefano Soatto•Apr 3, 2024•190

L'attention croisée rend l'inférence laborieuse dans les modèles de diffusion texte-image.
Cross-Attention Makes Inference Cumbersome in Text-to-Image Diffusion Models

Wentian Zhang, Haozhe Liu, Jinheng Xie, Francesco Faccio, Mike Zheng Shou, Jürgen Schmidhuber•Apr 3, 2024•131

Freditor : Édition NeRF de haute fidélité et transférable par décomposition fréquentielle
Freditor: High-Fidelity and Transferable NeRF Editing by Frequency Decomposition

Yisheng He, Weihao Yuan, Siyu Zhu, Zilong Dong, Liefeng Bo, Qixing Huang•Apr 3, 2024•110