ChatPaper.aiChatPaper.ai
Accueil

arXiv

HuggingFace

TarifsCompteEspace de travail

•
•

•
•

•
•

•
•

•
•

Footer

Company name

ChatPaper.ai: Your advanced AI reading assistant.

Contact us: [email protected]

X (Twitter)

Products

  • AI Search
  • AI Mind Map
  • Arxiv Summary
  • Huggingface Summary

Support

  • FAQ
  • Contact

Company

  • Blog
  • Privacy Policy
  • Terms of Service

Available Languages

  • 🇬🇧English
  • 🇨🇳中文简体
  • 🇭🇰繁體中文
  • 🇯🇵日本語
  • 🇰🇷한국어
  • 🇩🇪Deutsch
  • 🇫🇷Français
  • 🇷🇺Русский
  • 🇪🇸Español

© 2025 chatpaper.ai All rights reserved.

Articles de Recherche en IA Quotidiens

Articles de recherche en IA sélectionnés quotidiennement avec traductions

Optimisation Directe de Nash : Enseigner aux Modèles de Langage à s'Améliorer par eux-mêmes avec des Préférences Générales
Direct Nash Optimization: Teaching Language Models to Self-Improve with General Preferences

Corby Rosset, Ching-An Cheng, Arindam Mitra, Michael Santacroce, Ahmed Awadallah, Tengyang Xie•Apr 4, 2024•621

Stream of Search (SoS) : Apprendre à rechercher dans le langage
Stream of Search (SoS): Learning to Search in Language

Kanishk Gandhi, Denise Lee, Gabriel Grand, Muxin Liu, Winson Cheng, Archit Sharma, Noah D. Goodman•Apr 1, 2024•321

Pas de "Zero-Shot" sans données exponentielles : La fréquence des concepts en prétraining détermine la performance des modèles multimodaux
No "Zero-Shot" Without Exponential Data: Pretraining Concept Frequency Determines Multimodal Model Performance

Vishaal Udandarao, Ameya Prabhu, Adhiraj Ghosh, Yash Sharma, Philip H. S. Torr, Adel Bibi, Samuel Albanie, Matthias Bethge•Apr 4, 2024•301

AutoWebGLM : Amorçage et renforcement d'un agent de navigation web basé sur un grand modèle de langage
AutoWebGLM: Bootstrap And Reinforce A Large Language Model-based Web Navigating Agent

Hanyu Lai, Xiao Liu, Iat Long Iong, Shuntian Yao, Yuxuan Chen, Pengbo Shen, Hao Yu, Hanchen Zhang, Xiaohan Zhang, Yuxiao Dong, Jie Tang•Apr 4, 2024•293

CantTalkAboutThis : Aligner les modèles de langage pour rester sur le sujet dans les dialogues
CantTalkAboutThis: Aligning Language Models to Stay on Topic in Dialogues

Makesh Narsimhan Sreedhar, Traian Rebedea, Shaona Ghosh, Christopher Parisien•Apr 4, 2024•275

Formation aux compétences sociales avec des modèles de langage de grande taille
Social Skill Training with Large Language Models

Diyi Yang, Caleb Ziems, William Held, Omar Shaikh, Michael S. Bernstein, John Mitchell•Apr 5, 2024•160

RL pour les modèles de cohérence : Génération d'images à partir de texte guidée par récompense plus rapide
RL for Consistency Models: Faster Reward Guided Text-to-Image Generation

Owen Oertell, Jonathan D. Chang, Yiyi Zhang, Kianté Brantley, Wen Sun•Mar 25, 2024•163

Chinese Tiny LLM : Prétraitement d'un modèle de langage massif centré sur le chinois
Chinese Tiny LLM: Pretraining a Chinese-Centric Large Language Model

Xinrun Du, Zhouliang Yu, Songyang Gao, Ding Pan, Yuyang Cheng, Ziyang Ma, Ruibin Yuan, Xingwei Qu, Jiaheng Liu, Tianyu Zheng, Xinchen Luo, Guorui Zhou, Binhang Yuan, Wenhu Chen, Jie Fu, Ge Zhang•Apr 5, 2024•142

Gaussienne robuste par éclaboussure
Robust Gaussian Splatting

François Darmon, Lorenzo Porzi, Samuel Rota-Bulò, Peter Kontschieder•Apr 5, 2024•100

Sigma : Réseau Mamba Siamese pour la Segmentation Sémantique Multi-Modale
Sigma: Siamese Mamba Network for Multi-Modal Semantic Segmentation

Zifu Wan, Yuhao Wang, Silong Yong, Pingping Zhang, Simon Stepputtis, Katia Sycara, Yaqi Xie•Apr 5, 2024•71