ChatPaper.ai
メニューを開く
ホーム
今日の論文
arXiv
HuggingFace
料金プラン
アカウント
ワークスペース
🇯🇵
日本語
Loading...
•
•
•
•
•
•
•
•
•
•
AI研究論文デイリー
翻訳付きの日次キュレーションされたAI研究論文
October 11th, 2024
データアドバイザー:大規模言語モデルの安全整合のためのダイナミックデータキュレーション
Data Advisor: Dynamic Data Curation for Safety Alignment of Large Language Models
Fei Wang, Ninareh Mehrabi, Palash Goyal, Rahul Gupta, Kai-Wei Chang, Aram Galstyan
•
Oct 7, 2024
•
3
2
DART: スケーラブルなテキストから画像へのノイズ除去自己回帰トランスフォーマー
DART: Denoising Autoregressive Transformer for Scalable Text-to-Image Generation
Jiatao Gu, Yuyang Wang, Yizhe Zhang, Qihang Zhang, Dinghuai Zhang, Navdeep Jaitly, Josh Susskind, Shuangfei Zhai
•
Oct 10, 2024
•
25
2
ベクトル-ICL: 連続ベクトル表現を用いた文脈学習
Vector-ICL: In-context Learning with Continuous Vector Representations
Yufan Zhuang, Chandan Singh, Liyuan Liu, Jingbo Shang, Jianfeng Gao
•
Oct 8, 2024
•
3
3
エージェンティックワークフロー生成のベンチマーキング
Benchmarking Agentic Workflow Generation
Shuofei Qiao, Runnan Fang, Zhisong Qiu, Xiaobin Wang, Ningyu Zhang, Yong Jiang, Pengjun Xie, Fei Huang, Huajun Chen
•
Oct 10, 2024
•
27
2
すべての場所ですべてを一度に:LLMsは重ね合わせで複数のタスクをコンテキスト内で学習できます
Everything Everywhere All at Once: LLMs can In-Context Learn Multiple Tasks in Superposition
Zheyang Xiong, Ziyang Cai, John Cooper, Albert Ge, Vasilis Papageorgiou, Zack Sifakis, Angeliki Giannou, Ziqian Lin, Liu Yang, Saurabh Agarwal, Grigorios G Chrysos, Samet Oymak, Kangwook Lee, Dimitris Papailiopoulos
•
Oct 8, 2024
•
11
2
DICE: 多項分布拡散とマスク生成モデルのための制御可能な編集を可能にする離散逆変換
DICE: Discrete Inversion Enabling Controllable Editing for Multinomial Diffusion and Masked Generative Models
Xiaoxiao He, Ligong Han, Quan Dao, Song Wen, Minhao Bai, Di Liu, Han Zhang, Martin Renqiang Min, Felix Juefei-Xu, Chaowei Tan, Bo Liu, Kang Li, Hongdong Li, Junzhou Huang, Faez Ahmed, Akash Srivastava, Dimitris Metaxas
•
Oct 10, 2024
•
19
2
事前学習されたVLMのマルチモーダル能力を維持し、視覚言語の合成性を向上させる
Preserving Multi-Modal Capabilities of Pre-trained VLMs for Improving Vision-Linguistic Compositionality
Youngtaek Oh, Jae Won Cho, Dong-Jin Kim, In So Kweon, Junmo Kim
•
Oct 7, 2024
•
11
3
オプティマ:LLMベースのマルチエージェントシステムの効果と効率の最適化
Optima: Optimizing Effectiveness and Efficiency for LLM-Based Multi-Agent System
Weize Chen, Jiarui Yuan, Chen Qian, Cheng Yang, Zhiyuan Liu, Maosong Sun
•
Oct 10, 2024
•
8
2
修正拡散:修正フローにおいては、まっすぐさは必要ない
Rectified Diffusion: Straightness Is Not Your Need in Rectified Flow
Fu-Yun Wang, Ling Yang, Zhaoyang Huang, Mengdi Wang, Hongsheng Li
•
Oct 9, 2024
•
18
3
LPZero: ゼロからのゼロコストプロキシ検索言語モデル
LPZero: Language Model Zero-cost Proxy Search from Zero
Peijie Dong, Lujun Li, Xiang Liu, Zhenheng Tang, Xuebo Liu, Qiang Wang, Xiaowen Chu
•
Oct 7, 2024
•
2
2
MLLMをリトリーバーとして: 具現エージェントのためのマルチモーダル検索のインタラクティブな学習
MLLM as Retriever: Interactively Learning Multimodal Retrieval for Embodied Agents
Junpeng Yue, Xinru Xu, Börje F. Karlsson, Zongqing Lu
•
Oct 4, 2024
•
37
2
MathCoder2: モデルによる数学的コードの翻訳を継続的に事前学習することで、より優れた数学的推論を実現
MathCoder2: Better Math Reasoning from Continued Pretraining on Model-translated Mathematical Code
Zimu Lu, Aojun Zhou, Ke Wang, Houxing Ren, Weikang Shi, Junting Pan, Mingjie Zhan, Hongsheng Li
•
Oct 10, 2024
•
47
2
プログレッシブ・オートレグレッシブ・ビデオ拡散モデル
Progressive Autoregressive Video Diffusion Models
Desai Xie, Zhan Xu, Yicong Hong, Hao Tan, Difan Liu, Feng Liu, Arie Kaufman, Yang Zhou
•
Oct 10, 2024
•
16
4
自動LLMベンチマークの不正行為:ヌルモデルが高い勝率を達成
Cheating Automatic LLM Benchmarks: Null Models Achieve High Win Rates
Xiaosen Zheng, Tianyu Pang, Chao Du, Qian Liu, Jing Jiang, Min Lin
•
Oct 9, 2024
•
7
2
Zebra: パラメトリックPDEの解決のためのインコンテキストおよび生成プリトレーニング
Zebra: In-Context and Generative Pretraining for Solving Parametric PDEs
Louis Serrano, Armand Kassaï Koupaï, Thomas X Wang, Pierre Erbacher, Patrick Gallinari
•
Oct 4, 2024
•
2
2
大規模言語およびビジョンモデルの興味深い特性
Intriguing Properties of Large Language and Vision Models
Young-Jun Lee, Byungsoo Ko, Han-Gyu Kim, Yechan Hwang, Ho-Jin Choi
•
Oct 7, 2024
•
16
4
エージェントS:人間のようにコンピュータを使用するオープンなエージェンティックフレームワーク
Agent S: An Open Agentic Framework that Uses Computers Like a Human
Saaket Agashe, Jiuzhou Han, Shuyu Gan, Jiachen Yang, Ang Li, Xin Eric Wang
•
Oct 10, 2024
•
24
2
繰り返しの例による新興性質
Emergent properties with repeated examples
François Charton, Julia Kempe
•
Oct 9, 2024
•
8
3
LLMの自己改善に向けたMCTSを通じて: ステップバイズ知識を活用したカリキュラム優先学習
Towards Self-Improvement of LLMs via MCTS: Leveraging Stepwise Knowledge with Curriculum Preference Learning
Xiyao Wang, Linfeng Song, Ye Tian, Dian Yu, Baolin Peng, Haitao Mi, Furong Huang, Dong Yu
•
Oct 9, 2024
•
10
2
PrefixQuant:LLMにおいて、静的量子化が動的量子化をプレフィックス付きの外れ値を通じて上回る
PrefixQuant: Static Quantization Beats Dynamic through Prefixed Outliers in LLMs
Mengzhao Chen, Yi Liu, Jiahao Wang, Yi Bin, Wenqi Shao, Ping Luo
•
Oct 7, 2024
•
31
2
WALL-E: ルール学習によるワールドアライメントがワールドモデルベースのLLMエージェントを向上させる
WALL-E: World Alignment by Rule Learning Improves World Model-based LLM Agents
Siyu Zhou, Tianyi Zhou, Yijun Yang, Guodong Long, Deheng Ye, Jing Jiang, Chengqi Zhang
•
Oct 9, 2024
•
51
3
SFTMix: Mixup レシピを用いた言語モデルインストラクションチューニングの向上
SFTMix: Elevating Language Model Instruction Tuning with Mixup Recipe
Yuxin Xiao, Shujian Zhang, Wenxuan Zhou, Marzyeh Ghassemi, Sanqiang Zhao
•
Oct 7, 2024
•
8
2
カーネルのスケーリングアップ:ConvNetsにおける大規模カーネル設計に向けて 普遍的表現へ
Scaling Up Your Kernels: Large Kernel Design in ConvNets towards Universal Representations
Yiyuan Zhang, Xiaohan Ding, Xiangyu Yue
•
Oct 10, 2024
•
8
2
大規模言語モデルの整合性のための加速された選好最適化
Accelerated Preference Optimization for Large Language Model Alignment
Jiafan He, Huizhuo Yuan, Quanquan Gu
•
Oct 8, 2024
•
5
2
GLOV: 視覚のための暗黙の最適化子としてのガイド付き大規模言語モデル
GLOV: Guided Large Language Models as Implicit Optimizers for Vision Language Models
M. Jehanzeb Mirza, Mengjie Zhao, Zhuoyuan Mao, Sivan Doveh, Wei Lin, Paul Gavrikov, Michael Dorkenwald, Shiqi Yang, Saurav Jha, Hiromi Wakaki, Yuki Mitsufuji, Horst Possegger, Rogerio Feris, Leonid Karlinsky, James Glass
•
Oct 8, 2024
•
16
2
MotionGS:変形可能な3Dガウスへの明示的なモーションガイダンスの探索
MotionGS: Exploring Explicit Motion Guidance for Deformable 3D Gaussian Splatting
Ruijie Zhu, Yanzhe Liang, Hanzhi Chang, Jiacheng Deng, Jiahao Lu, Wenfei Yang, Tianzhu Zhang, Yongdong Zhang
•
Oct 10, 2024
•
3
2