ChatPaper.aiChatPaper

Modellazione Linguistica Multimodale per l'Analisi e la Generazione di Trascrittomica a Singola Cella ad Alta Precisione

Multimodal Language Modeling for High-Accuracy Single Cell Transcriptomics Analysis and Generation

March 12, 2025
Autori: Yaorui Shi, Jiaqi Yang, Sihang Li, Junfeng Fang, Xiang Wang, Zhiyuan Liu, Yang Zhang
cs.AI

Abstract

I modelli linguistici pre-addestrati (PLM) hanno rivoluzionato la ricerca scientifica, ma la loro applicazione nell'analisi a singola cellula rimane limitata. I PLM testuali non possono elaborare i dati di sequenziamento dell'RNA a singola cellula, mentre i PLM cellulari non sono in grado di gestire testo libero, limitando il loro utilizzo in compiti multimodali. Gli sforzi esistenti per colmare queste modalità spesso soffrono di perdita di informazioni o di un pre-addestramento monomodale inadeguato, portando a prestazioni subottimali. Per affrontare queste sfide, proponiamo il Single-Cell MultiModal Generative Pre-trained Transformer (scMMGPT), un PLM unificato per la modellizzazione congiunta di cellule e testo. scMMGPT integra efficacemente i migliori PLM cellulari e testuali, facilitando la condivisione di conoscenze cross-modali per migliorare le prestazioni. Per colmare il divario modale tra testo e cellula, scMMGPT sfrutta proiettori cross-modali dedicati e viene sottoposto a un esteso pre-addestramento su 27 milioni di cellule — il più grande dataset per PLM multimodali cellula-testo fino ad oggi. Questo pre-addestramento su larga scala consente a scMMGPT di eccellere in compiti congiunti cellula-testo, ottenendo un miglioramento relativo dell'84\% nella discrepanza testuale per la generazione di descrizioni cellulari, un'accuratezza del 20,5\% superiore per l'annotazione del tipo di cellula e un miglioramento del 4\% nell'accuratezza k-NN per la generazione di pseudo-cellule condizionate al testo, superando i benchmark esistenti.
English
Pre-trained language models (PLMs) have revolutionized scientific research, yet their application to single-cell analysis remains limited. Text PLMs cannot process single-cell RNA sequencing data, while cell PLMs lack the ability to handle free text, restricting their use in multimodal tasks. Existing efforts to bridge these modalities often suffer from information loss or inadequate single-modal pre-training, leading to suboptimal performances. To address these challenges, we propose Single-Cell MultiModal Generative Pre-trained Transformer (scMMGPT), a unified PLM for joint cell and text modeling. scMMGPT effectively integrates the state-of-the-art cell and text PLMs, facilitating cross-modal knowledge sharing for improved performance. To bridge the text-cell modality gap, scMMGPT leverages dedicated cross-modal projectors, and undergoes extensive pre-training on 27 million cells -- the largest dataset for multimodal cell-text PLMs to date. This large-scale pre-training enables scMMGPT to excel in joint cell-text tasks, achieving an 84\% relative improvement of textual discrepancy for cell description generation, 20.5\% higher accuracy for cell type annotation, and 4\% improvement in k-NN accuracy for text-conditioned pseudo-cell generation, outperforming baselines.
PDF42March 13, 2025