ChatPaper.aiChatPaper

m1 : Libérez le potentiel de la mise à l'échelle au moment du test pour le raisonnement médical avec les grands modèles de langage

m1: Unleash the Potential of Test-Time Scaling for Medical Reasoning with Large Language Models

April 1, 2025
Auteurs: Xiaoke Huang, Juncheng Wu, Hui Liu, Xianfeng Tang, Yuyin Zhou
cs.AI

Résumé

Le scaling au moment du test est apparu comme une technique puissante pour améliorer les capacités de raisonnement des grands modèles de langage. Cependant, son efficacité dans le raisonnement médical reste incertaine, car le domaine médical diffère fondamentalement des tâches mathématiques en termes de représentation des connaissances et de processus de prise de décision. Dans cet article, nous proposons la première investigation complète du scaling au moment du test pour le raisonnement médical et présentons m1, une approche simple mais efficace qui augmente la capacité de raisonnement médical d'un modèle lors de l'inférence. Notre évaluation sur diverses tâches médicales démontre que le scaling au moment du test améliore systématiquement le raisonnement médical, permettant à des modèles légers affinés de moins de 10 milliards de paramètres d'établir de nouvelles performances de pointe, tandis que notre modèle de 32 milliards rivalise avec les précédents modèles de langage médicaux à 70 milliards de paramètres. Cependant, nous identifions un budget optimal de tokens de raisonnement d'environ 4 000, au-delà duquel les performances peuvent se dégrader en raison d'une suranalyse. Le forçage de budget, qui étend le calcul au moment du test via des invites itératives, aide les modèles à revérifier les réponses mais n'améliore pas nécessairement la performance globale en question-réponse médicale et, dans certains cas, introduit même des erreurs dans des réponses précédemment correctes. Notre analyse au cas par cas identifie un manque de connaissances médicales comme un goulot d'étranglement clé qui empêche des gains de performance supplémentaires via le scaling au moment du test. Nous constatons qu'augmenter l'échelle des données, améliorer la qualité des données et étendre la capacité des modèles améliore systématiquement l'ancrage des connaissances médicales, permettant des améliorations continues des performances, en particulier sur des benchmarks médicaux difficiles où les modèles plus petits atteignent la saturation. Ces résultats soulignent les différences fondamentales entre le raisonnement médical et mathématique dans les modèles de langage, mettant en évidence qu'un enrichissement des connaissances médicales, plutôt qu'une simple augmentation de la profondeur de raisonnement, est essentiel pour réaliser les bénéfices du scaling au moment du test.
English
Test-time scaling has emerged as a powerful technique for enhancing the reasoning capabilities of large language models. However, its effectiveness in medical reasoning remains uncertain, as the medical domain fundamentally differs from mathematical tasks in terms of knowledge representation and decision-making processes. In this paper, we provide the first comprehensive investigation of test-time scaling for medical reasoning and present m1, a simple yet effective approach that increases a model's medical reasoning capability at inference. Our evaluation across diverse medical tasks demonstrates that test-time scaling consistently enhances medical reasoning, enabling lightweight fine-tuned models under 10B parameters to establish new state-of-the-art performance, while our 32B model rivals previous 70B-scale medical LLMs. However, we identify an optimal reasoning token budget of approximately 4K, beyond which performance may degrade due to overthinking. Budget forcing, which extends test-time computation through iterative prompts, helps models double-check answers but does not necessarily improve the overall medical QA performance and, in some cases, even introduces errors into previously correct responses. Our case-by-case analysis identifies insufficient medical knowledge as a key bottleneck that prevents further performance gains through test-time scaling. We find that increasing data scale, improving data quality, and expanding model capacity consistently enhance medical knowledge grounding, enabling continued performance improvements, particularly on challenging medical benchmarks where smaller models reach saturation. These findings underscore fundamental differences between medical and mathematical reasoning in LLMs, highlighting that enriched medical knowledge, other than increased reasoning depth alone, is essential for realizing the benefits of test-time scaling.
PDF102April 2, 2025