ChatPaper.aiChatPaper

Onderzoek naar mensgericht onzekerheidsbeheer in grote taalmodellen

Investigating Human-Aligned Large Language Model Uncertainty

March 16, 2025
Auteurs: Kyle Moore, Jesse Roberts, Daryl Watson, Pamela Wisniewski
cs.AI

Samenvatting

Recent werk heeft geprobeerd de onzekerheid van grote taalmodelen te kwantificeren om modelcontrole te vergemakkelijken en het gebruikersvertrouwen te moduleren. Eerdere werken richten zich op maatstaven van onzekerheid die theoretisch onderbouwd zijn of het gemiddelde openlijke gedrag van het model weerspiegelen. In dit werk onderzoeken we een verscheidenheid aan onzekerheidsmaatstaven om maatstaven te identificeren die correleren met onzekerheid op groepsniveau bij mensen. We ontdekken dat Bayesiaanse maatstaven en een variant op entropiemaatstaven, top-k entropie, over het algemeen overeenkomen met menselijk gedrag als functie van de modelgrootte. We constateren dat sommige sterke maatstaven in menselijke gelijkenis afnemen met de modelgrootte, maar door middel van meervoudige lineaire regressie vinden we dat het combineren van meerdere onzekerheidsmaatstaven vergelijkbare menselijke afstemming biedt met verminderde afhankelijkheid van de grootte.
English
Recent work has sought to quantify large language model uncertainty to facilitate model control and modulate user trust. Previous works focus on measures of uncertainty that are theoretically grounded or reflect the average overt behavior of the model. In this work, we investigate a variety of uncertainty measures, in order to identify measures that correlate with human group-level uncertainty. We find that Bayesian measures and a variation on entropy measures, top-k entropy, tend to agree with human behavior as a function of model size. We find that some strong measures decrease in human-similarity with model size, but, by multiple linear regression, we find that combining multiple uncertainty measures provide comparable human-alignment with reduced size-dependency.

Summary

AI-Generated Summary

PDF42March 18, 2025