Klassische Planung mit LLM-generierten Heuristiken: Herausforderung des Standes der Technik mit Python-Code
Classical Planning with LLM-Generated Heuristics: Challenging the State of the Art with Python Code
March 24, 2025
Autoren: Augusto B. Corrêa, André G. Pereira, Jendrik Seipp
cs.AI
Zusammenfassung
In den letzten Jahren haben große Sprachmodelle (LLMs) bemerkenswerte Fähigkeiten bei verschiedenen Problemen der künstlichen Intelligenz gezeigt. Allerdings scheitern sie zuverlässig bei der Planung, selbst wenn sie mit einer detaillierten Definition der Planungsaufgabe gepromptet werden. Versuche, ihre Planungsfähigkeiten zu verbessern, wie Chain-of-Thought-Prompting, Feinabstimmung und explizites „Schlussfolgern“, führen dennoch zu falschen Plänen und scheitern meist bei der Generalisierung auf größere Aufgaben. In diesem Artikel zeigen wir, wie LLMs verwendet werden können, um korrekte Pläne zu generieren, sogar für Out-of-Distribution-Aufgaben mit zunehmender Größe. Für ein gegebenes Planungsgebiet bitten wir ein LLM, mehrere domänenabhängige Heuristikfunktionen in Form von Python-Code zu generieren, diese auf einer Reihe von Trainingsaufgaben innerhalb einer gierigen Best-First-Suche zu evaluieren und die stärkste auszuwählen. Die resultierenden LLM-generierten Heuristiken lösen deutlich mehr ungesehene Testaufgaben als state-of-the-art domänenunabhängige Heuristiken für klassische Planung. Sie sind sogar wettbewerbsfähig mit dem stärksten Lernalgorithmus für domänenabhängige Planung. Diese Ergebnisse sind besonders bemerkenswert, da unser Proof-of-Concept-Implementierung auf einem nicht optimierten Python-Planer basiert und die Vergleichsbaselines alle auf hochoptimiertem C++-Code aufbauen. In einigen Domänen expandieren die LLM-generierten Heuristiken weniger Zustände als die Baselines, was zeigt, dass sie nicht nur effizient berechenbar sind, sondern manchmal sogar informativer als die state-of-the-art Heuristiken. Insgesamt zeigen unsere Ergebnisse, dass das Sampling einer Reihe von Planungsheuristikfunktionsprogrammen die Planungsfähigkeiten von LLMs erheblich verbessern kann.
English
In recent years, large language models (LLMs) have shown remarkable
capabilities in various artificial intelligence problems. However, they fail to
plan reliably, even when prompted with a detailed definition of the planning
task. Attempts to improve their planning capabilities, such as chain-of-thought
prompting, fine-tuning, and explicit "reasoning" still yield incorrect plans
and usually fail to generalize to larger tasks. In this paper, we show how to
use LLMs to generate correct plans, even for out-of-distribution tasks of
increasing size. For a given planning domain, we ask an LLM to generate several
domain-dependent heuristic functions in the form of Python code, evaluate them
on a set of training tasks within a greedy best-first search, and choose the
strongest one. The resulting LLM-generated heuristics solve many more unseen
test tasks than state-of-the-art domain-independent heuristics for classical
planning. They are even competitive with the strongest learning algorithm for
domain-dependent planning. These findings are especially remarkable given that
our proof-of-concept implementation is based on an unoptimized Python planner
and the baselines all build upon highly optimized C++ code. In some domains,
the LLM-generated heuristics expand fewer states than the baselines, revealing
that they are not only efficiently computable, but sometimes even more
informative than the state-of-the-art heuristics. Overall, our results show
that sampling a set of planning heuristic function programs can significantly
improve the planning capabilities of LLMs.Summary
AI-Generated Summary