ChatPaper.aiChatPaper

fMRIにおける言語符号化モデルのスケーリング則

Scaling laws for language encoding models in fMRI

May 19, 2023
著者: Richard Antonello, Aditya Vaidya, Alexander G. Huth
cs.AI

要旨

Transformerベースの一方向性言語モデルからの表現は、自然言語に対する脳の反応を予測するのに有効であることが知られています。しかし、言語モデルと脳を比較した研究のほとんどは、GPT-2または同程度のサイズの言語モデルを使用しています。本研究では、OPTやLLaMAファミリーなどの大規模なオープンソースモデルが、fMRIを用いて記録された脳の反応を予測するのに優れているかどうかを検証しました。他の文脈でのスケーリング結果と同様に、125Mから30Bパラメータのモデルにおいて、脳の予測性能がモデルサイズに対して対数線形的にスケールし、3名の被験者におけるテストセットとの相関で測定されるエンコーディング性能が約15%向上することがわかりました。fMRIトレーニングセットのサイズをスケールさせた場合も、同様の対数線形的な挙動が観察されました。また、HuBERT、WavLM、Whisperを使用した音響エンコーディングモデルのスケーリング特性を評価し、モデルサイズに伴う同様の改善が見られました。これらの大規模で高性能なエンコーディングモデルに対するノイズ上限分析では、楔前部や高次聴覚皮質などの脳領域において、理論上の最大値に近づいていることが示されました。これらの結果は、モデルとデータの両方のスケールを増加させることで、脳の言語処理を非常に効果的にモデル化し、科学的理解を深めるだけでなく、デコーディングなどの応用を可能にすることを示唆しています。
English
Representations from transformer-based unidirectional language models are known to be effective at predicting brain responses to natural language. However, most studies comparing language models to brains have used GPT-2 or similarly sized language models. Here we tested whether larger open-source models such as those from the OPT and LLaMA families are better at predicting brain responses recorded using fMRI. Mirroring scaling results from other contexts, we found that brain prediction performance scales log-linearly with model size from 125M to 30B parameter models, with ~15% increased encoding performance as measured by correlation with a held-out test set across 3 subjects. Similar log-linear behavior was observed when scaling the size of the fMRI training set. We also characterized scaling for acoustic encoding models that use HuBERT, WavLM, and Whisper, and we found comparable improvements with model size. A noise ceiling analysis of these large, high-performance encoding models showed that performance is nearing the theoretical maximum for brain areas such as the precuneus and higher auditory cortex. These results suggest that increasing scale in both models and data will yield incredibly effective models of language processing in the brain, enabling better scientific understanding as well as applications such as decoding.

Summary

AI-Generated Summary

PDF10December 15, 2024