ChatPaper.aiChatPaper

Machine Bullshit: Het karakteriseren van het opkomende gebrek aan waarheidsgetrouwheid in grote taalmodellen

Machine Bullshit: Characterizing the Emergent Disregard for Truth in Large Language Models

July 10, 2025
Auteurs: Kaiqu Liang, Haimin Hu, Xuandong Zhao, Dawn Song, Thomas L. Griffiths, Jaime Fernández Fisac
cs.AI

Samenvatting

Bullshit, zoals geconceptualiseerd door filosoof Harry Frankfurt, verwijst naar uitspraken die worden gedaan zonder rekening te houden met hun waarheidsgehalte. Terwijl eerder onderzoek zich heeft gericht op hallucinatie en slaafs gedrag van grote taalmodellen (LLM's), stellen wij machine bullshit voor als een overkoepelend conceptueel raamwerk waarmee onderzoekers het bredere fenomeen van emergent verlies van waarachtigheid in LLM's kunnen karakteriseren en inzicht kunnen krijgen in de onderliggende mechanismen. We introduceren de Bullshit Index, een nieuwe metriek die de onverschilligheid van LLM's ten opzichte van de waarheid kwantificeert, en stellen een complementaire taxonomie voor die vier kwalitatieve vormen van bullshit analyseert: holle retoriek, misleidende informatie, wezelwoorden en onverifieerbare claims. We voeren empirische evaluaties uit op de Marketplace-dataset, de Political Neutrality-dataset en onze nieuwe BullshitEval-benchmark (2.400 scenario's verspreid over 100 AI-assistenten), die expliciet is ontworpen om machine bullshit te evalueren. Onze resultaten tonen aan dat model fine-tuning met reinforcement learning from human feedback (RLHF) bullshit aanzienlijk verergert en dat inference-time chain-of-thought (CoT) prompting specifieke vormen van bullshit, met name holle retoriek en misleidende informatie, opvallend versterkt. We observeren ook veelvoorkomende machine bullshit in politieke contexten, waarbij wezelwoorden de dominante strategie zijn. Onze bevindingen benadrukken systematische uitdagingen in AI-alignment en bieden nieuwe inzichten voor waarachtiger gedrag van LLM's.
English
Bullshit, as conceptualized by philosopher Harry Frankfurt, refers to statements made without regard to their truth value. While previous work has explored large language model (LLM) hallucination and sycophancy, we propose machine bullshit as an overarching conceptual framework that can allow researchers to characterize the broader phenomenon of emergent loss of truthfulness in LLMs and shed light on its underlying mechanisms. We introduce the Bullshit Index, a novel metric quantifying LLMs' indifference to truth, and propose a complementary taxonomy analyzing four qualitative forms of bullshit: empty rhetoric, paltering, weasel words, and unverified claims. We conduct empirical evaluations on the Marketplace dataset, the Political Neutrality dataset, and our new BullshitEval benchmark (2,400 scenarios spanning 100 AI assistants) explicitly designed to evaluate machine bullshit. Our results demonstrate that model fine-tuning with reinforcement learning from human feedback (RLHF) significantly exacerbates bullshit and inference-time chain-of-thought (CoT) prompting notably amplify specific bullshit forms, particularly empty rhetoric and paltering. We also observe prevalent machine bullshit in political contexts, with weasel words as the dominant strategy. Our findings highlight systematic challenges in AI alignment and provide new insights toward more truthful LLM behavior.
PDF172July 11, 2025