ChatPaper.aiChatPaper

Além da Superfície: Investigando o LLaMA em Diferentes Escalas e Camadas

Beyond Surface: Probing LLaMA Across Scales and Layers

December 7, 2023
Autores: Nuo Chen, Ning Wu, Shining Liang, Ming Gong, Linjun Shou, Dongmei Zhang, Jia Li
cs.AI

Resumo

Este artigo apresenta uma análise aprofundada dos Modelos de Linguagem de Grande Escala (LLMs), com foco no LLaMA, um modelo fundamental de código aberto proeminente no processamento de linguagem natural. Em vez de avaliar o LLaMA por meio de sua saída gerativa, projetamos tarefas de múltipla escolha para investigar sua compreensão intrínseca em tarefas de alta complexidade, como raciocínio e computação. Examinamos o modelo horizontalmente, comparando diferentes tamanhos, e verticalmente, avaliando diferentes camadas. Revelamos várias descobertas importantes e incomuns com base nas tarefas de investigação projetadas: (1) Horizontalmente, aumentar o tamanho dos modelos quase não consegue automaticamente conferir conhecimento adicional ou habilidade computacional. Em vez disso, pode aprimorar habilidades de raciocínio, especialmente na resolução de problemas matemáticos, e ajuda a reduzir alucinações, mas apenas além de certos limiares de tamanho; (2) Na análise vertical, as camadas inferiores do LLaMA carecem de conhecimento aritmético e factual substancial, exibindo pensamento lógico, habilidades multilingues e de reconhecimento, com as camadas superiores abrigando a maior parte do poder computacional e do conhecimento do mundo real.
English
This paper presents an in-depth analysis of Large Language Models (LLMs), focusing on LLaMA, a prominent open-source foundational model in natural language processing. Instead of assessing LLaMA through its generative output, we design multiple-choice tasks to probe its intrinsic understanding in high-order tasks such as reasoning and computation. We examine the model horizontally, comparing different sizes, and vertically, assessing different layers. We unveil several key and uncommon findings based on the designed probing tasks: (1) Horizontally, enlarging model sizes almost could not automatically impart additional knowledge or computational prowess. Instead, it can enhance reasoning abilities, especially in math problem solving, and helps reduce hallucinations, but only beyond certain size thresholds; (2) In vertical analysis, the lower layers of LLaMA lack substantial arithmetic and factual knowledge, showcasing logical thinking, multilingual and recognitive abilities, with top layers housing most computational power and real-world knowledge.
PDF202December 15, 2024