ChatPaper.aiChatPaper

HyenaDNA:単一塩基解像度での長距離ゲノム配列モデリング

HyenaDNA: Long-Range Genomic Sequence Modeling at Single Nucleotide Resolution

June 27, 2023
著者: Eric Nguyen, Michael Poli, Marjan Faizi, Armin Thomas, Callum Birch-Sykes, Michael Wornow, Aman Patel, Clayton Rabideau, Stefano Massaroli, Yoshua Bengio, Stefano Ermon, Stephen A. Baccus, Chris Ré
cs.AI

要旨

ゲノム(DNA)配列は、遺伝子調節やタンパク質合成のための膨大な情報をコードしています。自然言語モデルと同様に、研究者たちはゲノミクスにおける基盤モデルを提案し、ラベルなしのゲノムデータから一般化可能な特徴を学習し、その後、調節要素の識別などの下流タスクにファインチューニングすることを目指しています。アテンションの二次スケーリングのため、これまでのTransformerベースのゲノムモデルは512から4kトークンをコンテキストとして使用しており(ヒトゲノムの0.001%未満)、DNA内の長距離相互作用のモデリングが大幅に制限されていました。さらに、これらの手法はトークナイザーを使用して意味のあるDNA単位を集約するため、単一ヌクレオチドの解像度が失われ、微妙な遺伝的変異が単一ヌクレオチド多型(SNP)を介してタンパク質機能を完全に変える可能性があります。最近、暗黙の畳み込みに基づく大規模言語モデルであるHyenaが、品質においてアテンションに匹敵しつつ、より長いコンテキスト長と低い時間計算量を可能にすることが示されました。Hyenaの新しい長距離能力を活用して、我々はHyenaDNAを提案します。これは、ヒト参照ゲノムに対して最大100万トークンのコンテキスト長で単一ヌクレオチドレベルで事前学習されたゲノム基盤モデルであり、これまでの密なアテンションベースのモデルに比べて最大500倍の増加です。HyenaDNAは配列長に対して準二次的にスケーリングし(Transformerに比べて最大160倍高速に学習)、単一ヌクレオチドトークンを使用し、各層で完全なグローバルコンテキストを持ちます。我々は、より長いコンテキストが可能にするもの、特にゲノミクスにおける初めてのインコンテキスト学習を探求し、事前学習済みモデルの重みを更新せずに新しいタスクに適応することを可能にします。Nucleotide Transformerのファインチューニングベンチマークにおいて、HyenaDNAは17のデータセットのうち12で、桁違いに少ないパラメータと事前学習データを使用して最先端(SotA)を達成しました。GenomicBenchmarksでは、HyenaDNAは8つのデータセットすべてで平均+9の精度ポイントでSotAを上回りました。
English
Genomic (DNA) sequences encode an enormous amount of information for gene regulation and protein synthesis. Similar to natural language models, researchers have proposed foundation models in genomics to learn generalizable features from unlabeled genome data that can then be fine-tuned for downstream tasks such as identifying regulatory elements. Due to the quadratic scaling of attention, previous Transformer-based genomic models have used 512 to 4k tokens as context (<0.001% of the human genome), significantly limiting the modeling of long-range interactions in DNA. In addition, these methods rely on tokenizers to aggregate meaningful DNA units, losing single nucleotide resolution where subtle genetic variations can completely alter protein function via single nucleotide polymorphisms (SNPs). Recently, Hyena, a large language model based on implicit convolutions was shown to match attention in quality while allowing longer context lengths and lower time complexity. Leveraging Hyenas new long-range capabilities, we present HyenaDNA, a genomic foundation model pretrained on the human reference genome with context lengths of up to 1 million tokens at the single nucleotide-level, an up to 500x increase over previous dense attention-based models. HyenaDNA scales sub-quadratically in sequence length (training up to 160x faster than Transformer), uses single nucleotide tokens, and has full global context at each layer. We explore what longer context enables - including the first use of in-context learning in genomics for simple adaptation to novel tasks without updating pretrained model weights. On fine-tuned benchmarks from the Nucleotide Transformer, HyenaDNA reaches state-of-the-art (SotA) on 12 of 17 datasets using a model with orders of magnitude less parameters and pretraining data. On the GenomicBenchmarks, HyenaDNA surpasses SotA on all 8 datasets on average by +9 accuracy points.
PDF172December 15, 2024