SpreadsheetLLM: Codificación de Hojas de Cálculo para Modelos de Lenguaje GrandesSpreadsheetLLM: Encoding Spreadsheets for Large Language Models
Las hojas de cálculo, con sus extensas cuadrículas bidimensionales, diversos diseños y variadas opciones de formato, presentan desafíos notables para los modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés). En respuesta, presentamos SpreadsheetLLM, pionero en un método de codificación eficiente diseñado para liberar y optimizar la potente capacidad de comprensión y razonamiento de los LLMs en hojas de cálculo. Inicialmente, proponemos un enfoque de serialización básico que incorpora direcciones de celda, valores y formatos. Sin embargo, este enfoque se vio limitado por las restricciones de tokens de los LLMs, lo que lo hizo poco práctico para la mayoría de las aplicaciones. Para abordar este desafío, desarrollamos SheetCompressor, un innovador marco de codificación que comprime eficazmente las hojas de cálculo para los LLMs. Consta de tres módulos: compresión basada en anclaje estructural, traducción de índices inversos y agregación consciente del formato de los datos. Mejora significativamente el rendimiento en la tarea de detección de tablas de hojas de cálculo, superando al enfoque básico en un 25.6% en el entorno de aprendizaje en contexto de GPT4. Además, el LLM afinado con SheetCompressor tiene una relación de compresión promedio de 25 veces, pero logra un puntaje F1 de vanguardia del 78.9%, superando a los mejores modelos existentes en un 12.3%. Finalmente, proponemos Chain of Spreadsheet para tareas posteriores de comprensión de hojas de cálculo y validamos en una nueva y exigente tarea de preguntas y respuestas de hojas de cálculo. Aprovechamos metódicamente el diseño y la estructura inherentes de las hojas de cálculo, demostrando que SpreadsheetLLM es altamente efectivo en una variedad de tareas de hojas de cálculo.