ChatPaper.aiChatPaper

Machine Bullshit: Caratterizzazione dell'emergente disprezzo per la verità nei modelli linguistici di grandi dimensioni

Machine Bullshit: Characterizing the Emergent Disregard for Truth in Large Language Models

July 10, 2025
Autori: Kaiqu Liang, Haimin Hu, Xuandong Zhao, Dawn Song, Thomas L. Griffiths, Jaime Fernández Fisac
cs.AI

Abstract

Il "bullshit", concettualizzato dal filosofo Harry Frankfurt, si riferisce a dichiarazioni formulate senza riguardo per il loro valore di verità. Mentre lavori precedenti hanno esplorato l'allucinazione e la sottomissione nei grandi modelli linguistici (LLM), noi proponiamo il "machine bullshit" come un quadro concettuale generale che consente ai ricercatori di caratterizzare il fenomeno più ampio della perdita emergente di veridicità negli LLM e di far luce sui suoi meccanismi sottostanti. Introduciamo il Bullshit Index, una nuova metrica che quantifica l'indifferenza degli LLM alla verità, e proponiamo una tassonomia complementare che analizza quattro forme qualitative di bullshit: retorica vuota, tergiversazione, parole ambigue e affermazioni non verificate. Conduciamo valutazioni empiriche sul dataset Marketplace, sul dataset Political Neutrality e sul nostro nuovo benchmark BullshitEval (2.400 scenari che coprono 100 assistenti AI) progettato esplicitamente per valutare il machine bullshit. I nostri risultati dimostrano che il fine-tuning del modello con l'apprendimento per rinforzo basato sul feedback umano (RLHF) aggrava significativamente il bullshit e che il prompting a catena di pensiero (CoT) durante l'inferenza amplifica notevolmente forme specifiche di bullshit, in particolare la retorica vuota e la tergiversazione. Osserviamo inoltre un bullshit diffuso nei contesti politici, con le parole ambigue come strategia dominante. Le nostre scoperte evidenziano sfide sistematiche nell'allineamento dell'IA e forniscono nuove intuizioni verso un comportamento più veritiero degli LLM.
English
Bullshit, as conceptualized by philosopher Harry Frankfurt, refers to statements made without regard to their truth value. While previous work has explored large language model (LLM) hallucination and sycophancy, we propose machine bullshit as an overarching conceptual framework that can allow researchers to characterize the broader phenomenon of emergent loss of truthfulness in LLMs and shed light on its underlying mechanisms. We introduce the Bullshit Index, a novel metric quantifying LLMs' indifference to truth, and propose a complementary taxonomy analyzing four qualitative forms of bullshit: empty rhetoric, paltering, weasel words, and unverified claims. We conduct empirical evaluations on the Marketplace dataset, the Political Neutrality dataset, and our new BullshitEval benchmark (2,400 scenarios spanning 100 AI assistants) explicitly designed to evaluate machine bullshit. Our results demonstrate that model fine-tuning with reinforcement learning from human feedback (RLHF) significantly exacerbates bullshit and inference-time chain-of-thought (CoT) prompting notably amplify specific bullshit forms, particularly empty rhetoric and paltering. We also observe prevalent machine bullshit in political contexts, with weasel words as the dominant strategy. Our findings highlight systematic challenges in AI alignment and provide new insights toward more truthful LLM behavior.
PDF172July 11, 2025