ChatPaper.aiChatPaper

Modelos de Gran Escala para Comprender, Simular y Optimizar Contenido y Comportamiento

Large Content And Behavior Models To Understand, Simulate, And Optimize Content And Behavior

September 1, 2023
Autores: Ashmit Khandelwal, Aditya Agrawal, Aanisha Bhattacharyya, Yaman K Singla, Somesh Singh, Uttaran Bhattacharya, Ishita Dasgupta, Stefano Petrangeli, Rajiv Ratn Shah, Changyou Chen, Balaji Krishnamurthy
cs.AI

Resumen

Shannon, en su artículo seminal que introdujo la teoría de la información, dividió la comunicación en tres niveles: técnico, semántico y de efectividad. Mientras que el nivel técnico se ocupa de la reconstrucción precisa de los símbolos transmitidos, los niveles semántico y de efectividad tratan sobre el significado inferido y su efecto en el receptor. Gracias a las telecomunicaciones, el problema del primer nivel ha producido grandes avances como internet. Los Modelos de Lenguaje de Gran Escala (LLMs, por sus siglas en inglés) han logrado cierto progreso hacia el segundo objetivo, pero el tercer nivel sigue siendo en gran medida inexplorado. El tercer problema se refiere a predecir y optimizar la comunicación para obtener el comportamiento deseado en el receptor. Los LLMs, aunque muestran capacidades de generalización amplias en una variedad de tareas, no pueden resolver este problema. Una razón para este bajo rendimiento podría ser la falta de "tokens de comportamiento" en los corpus de entrenamiento de los LLMs. Los tokens de comportamiento definen el comportamiento del receptor durante una comunicación, como compartir, dar "me gusta", hacer clic, comprar, retuitear, etc. Al preprocesar los datos para el entrenamiento de los LLMs, los tokens de comportamiento a menudo se eliminan del corpus como ruido. Por lo tanto, en este artículo, avanzamos inicialmente en la reintroducción de tokens de comportamiento en el entrenamiento de los LLMs. Los modelos entrenados, además de mostrar un rendimiento similar al de los LLMs en tareas de comprensión de contenido, demuestran capacidades de generalización en simulación de comportamiento, simulación de contenido, comprensión de comportamiento y adaptación de dominio de comportamiento. Utilizando una amplia gama de tareas en dos corpus, mostramos resultados en todas estas capacidades. Llamamos a estos modelos Modelos de Contenido y Comportamiento de Gran Escala (LCBMs, por sus siglas en inglés). Además, para fomentar más investigación sobre los LCBMs, publicamos nuestro nuevo Corpus de Comportamiento de Contenido (CBC), un repositorio que contiene al comunicador, el mensaje y el comportamiento correspondiente del receptor.
English
Shannon, in his seminal paper introducing information theory, divided the communication into three levels: technical, semantic, and effectivenss. While the technical level is concerned with accurate reconstruction of transmitted symbols, the semantic and effectiveness levels deal with the inferred meaning and its effect on the receiver. Thanks to telecommunications, the first level problem has produced great advances like the internet. Large Language Models (LLMs) make some progress towards the second goal, but the third level still remains largely untouched. The third problem deals with predicting and optimizing communication for desired receiver behavior. LLMs, while showing wide generalization capabilities across a wide range of tasks, are unable to solve for this. One reason for the underperformance could be a lack of "behavior tokens" in LLMs' training corpora. Behavior tokens define receiver behavior over a communication, such as shares, likes, clicks, purchases, retweets, etc. While preprocessing data for LLM training, behavior tokens are often removed from the corpora as noise. Therefore, in this paper, we make some initial progress towards reintroducing behavior tokens in LLM training. The trained models, other than showing similar performance to LLMs on content understanding tasks, show generalization capabilities on behavior simulation, content simulation, behavior understanding, and behavior domain adaptation. Using a wide range of tasks on two corpora, we show results on all these capabilities. We call these models Large Content and Behavior Models (LCBMs). Further, to spur more research on LCBMs, we release our new Content Behavior Corpus (CBC), a repository containing communicator, message, and corresponding receiver behavior.
PDF220December 15, 2024