ChatPaper.aiChatPaper

Modelado de Lenguaje Multimodal para Análisis y Generación de Transcriptómica de Célula Única de Alta Precisión

Multimodal Language Modeling for High-Accuracy Single Cell Transcriptomics Analysis and Generation

March 12, 2025
Autores: Yaorui Shi, Jiaqi Yang, Sihang Li, Junfeng Fang, Xiang Wang, Zhiyuan Liu, Yang Zhang
cs.AI

Resumen

Los modelos de lenguaje preentrenados (PLMs, por sus siglas en inglés) han revolucionado la investigación científica, pero su aplicación en el análisis de células individuales sigue siendo limitada. Los PLMs de texto no pueden procesar datos de secuenciación de ARN de células individuales, mientras que los PLMs de células carecen de la capacidad para manejar texto libre, lo que restringe su uso en tareas multimodales. Los esfuerzos existentes para conectar estas modalidades a menudo sufren de pérdida de información o un preentrenamiento insuficiente en modalidades individuales, lo que resulta en un rendimiento subóptimo. Para abordar estos desafíos, proponemos el Transformer Generativo Preentrenado Multimodal para Células Individuales (scMMGPT, por sus siglas en inglés), un PLM unificado para el modelado conjunto de células y texto. scMMGPT integra de manera efectiva los PLMs de células y texto más avanzados, facilitando el intercambio de conocimiento entre modalidades para mejorar el rendimiento. Para cerrar la brecha entre las modalidades de texto y células, scMMGPT aprovecha proyectores cruzados dedicados y se somete a un extenso preentrenamiento en 27 millones de células, el conjunto de datos más grande hasta la fecha para PLMs multimodales de texto y células. Este preentrenamiento a gran escala permite que scMMGPT sobresalga en tareas conjuntas de texto y células, logrando una mejora relativa del 84% en la discrepancia textual para la generación de descripciones de células, un 20.5% más de precisión en la anotación de tipos celulares y una mejora del 4% en la precisión de k-NN para la generación de pseudo-células condicionadas por texto, superando a los modelos de referencia.
English
Pre-trained language models (PLMs) have revolutionized scientific research, yet their application to single-cell analysis remains limited. Text PLMs cannot process single-cell RNA sequencing data, while cell PLMs lack the ability to handle free text, restricting their use in multimodal tasks. Existing efforts to bridge these modalities often suffer from information loss or inadequate single-modal pre-training, leading to suboptimal performances. To address these challenges, we propose Single-Cell MultiModal Generative Pre-trained Transformer (scMMGPT), a unified PLM for joint cell and text modeling. scMMGPT effectively integrates the state-of-the-art cell and text PLMs, facilitating cross-modal knowledge sharing for improved performance. To bridge the text-cell modality gap, scMMGPT leverages dedicated cross-modal projectors, and undergoes extensive pre-training on 27 million cells -- the largest dataset for multimodal cell-text PLMs to date. This large-scale pre-training enables scMMGPT to excel in joint cell-text tasks, achieving an 84\% relative improvement of textual discrepancy for cell description generation, 20.5\% higher accuracy for cell type annotation, and 4\% improvement in k-NN accuracy for text-conditioned pseudo-cell generation, outperforming baselines.

Summary

AI-Generated Summary

PDF42March 13, 2025