ChatPaper.aiChatPaper

Ожидайте неожиданного: FailSafe Long Context QA для финансов

Expect the Unexpected: FailSafe Long Context QA for Finance

February 10, 2025
Авторы: Kiran Kamble, Melisa Russak, Dmytro Mozolevskyi, Muayad Ali, Mateusz Russak, Waseem AlShikh
cs.AI

Аннотация

Мы предлагаем новый долгосрочный финансовый бенчмарк FailSafeQA, разработанный для проверки устойчивости и контекстоспособности LLM по шести вариациям человеко-интерфейсных взаимодействий в системах вопрос-ответ на основе LLM в финансовой сфере. Мы сосредотачиваемся на двух кейс-исследованиях: Отказ в запросе и Отказ в контексте. В сценарии Отказа в запросе мы искажаем исходный запрос для изменения уровня экспертизы домена, полноты и лингвистической точности. В случае Отказа в контексте мы симулируем загрузку ухудшенных, несвязанных и пустых документов. Мы используем методологию LLM-как-судья с Qwen2.5-72B-Instruct и применяем критерии оценки с Feinberg-Grund и Compliance для определения и расчета показателей Устойчивости, Контекстной опоры и Соответствия для 24 моделей из коробки. Результаты показывают, что хотя некоторые модели отлично справляются с устранением входных искажений, им необходимо находить баланс между устойчивым ответом и способностью воздерживаться от галлюцинаций. Особенно стоит отметить, что модель Palmyra-Fin-128k-Instruct, признанная наиболее соответствующей, сохраняла высокую базовую производительность, но столкнулась с трудностями в поддержании устойчивых прогнозов в 17% тестовых случаев. С другой стороны, наиболее устойчивая модель OpenAI o3-mini, выдумывала информацию в 41% протестированных случаев. Результаты показывают, что даже у высокопроизводительных моделей есть значительный потенциал для улучшения и подчеркивают роль FailSafeQA как инструмента для разработки LLM, оптимизированных для надежности в финансовых приложениях. Набор данных доступен по ссылке: https://huggingface.co/datasets/Writer/FailSafeQA
English
We propose a new long-context financial benchmark, FailSafeQA, designed to test the robustness and context-awareness of LLMs against six variations in human-interface interactions in LLM-based query-answer systems within finance. We concentrate on two case studies: Query Failure and Context Failure. In the Query Failure scenario, we perturb the original query to vary in domain expertise, completeness, and linguistic accuracy. In the Context Failure case, we simulate the uploads of degraded, irrelevant, and empty documents. We employ the LLM-as-a-Judge methodology with Qwen2.5-72B-Instruct and use fine-grained rating criteria to define and calculate Robustness, Context Grounding, and Compliance scores for 24 off-the-shelf models. The results suggest that although some models excel at mitigating input perturbations, they must balance robust answering with the ability to refrain from hallucinating. Notably, Palmyra-Fin-128k-Instruct, recognized as the most compliant model, maintained strong baseline performance but encountered challenges in sustaining robust predictions in 17% of test cases. On the other hand, the most robust model, OpenAI o3-mini, fabricated information in 41% of tested cases. The results demonstrate that even high-performing models have significant room for improvement and highlight the role of FailSafeQA as a tool for developing LLMs optimized for dependability in financial applications. The dataset is available at: https://huggingface.co/datasets/Writer/FailSafeQA

Summary

AI-Generated Summary

PDF1314February 12, 2025