LLaVA-o1:讓視覺語言模型逐步推理LLaVA-o1: Let Vision Language Models Reason Step-by-Step
大型語言模型已經展示出在推理能力方面的顯著進展,特別是通過推理時間的擴展,正如OpenAI的o1等模型所展示的那樣。然而,目前的視覺語言模型(VLMs)在執行系統性和結構化推理時常常遇到困難,特別是在處理複雜的視覺問答任務時。在這項工作中,我們介紹了LLaVA-o1,這是一種新型的VLM,旨在進行自主的多階段推理。與思維鏈提示不同,LLaVA-o1獨立進行摘要、視覺解釋、邏輯推理和結論生成的順序階段。這種結構化方法使LLaVA-o1在推理密集任務上實現了明顯的改進。為了實現這一點,我們編制了LLaVA-o1-100k數據集,將來自各種視覺問答來源的樣本與結構化推理標註相結合。此外,我們提出了一種推理時間階段級別的束搜索方法,實現了有效的推理時間擴展。顯著的是,僅憑100k個訓練樣本和一種簡單而有效的推理時間擴展方法,LLaVA-o1不僅在各種多模態推理基準測試中將其基本模型的表現提高了8.9%,而且超越了Gemini-1.5-pro、GPT-4o-mini和Llama-3.2-90B-Vision-Instruct等更大甚至封閉源模型的性能。