ChatPaper.aiChatPaper

Modellbasierte Steuerung mit spärlicher neuronaler Dynamik

Model-Based Control with Sparse Neural Dynamics

December 20, 2023
Autoren: Ziang Liu, Genggeng Zhou, Jeff He, Tobia Marcucci, Li Fei-Fei, Jiajun Wu, Yunzhu Li
cs.AI

Zusammenfassung

Das Lernen prädiktiver Modelle aus Beobachtungen mithilfe tiefer neuronaler Netze (DNNs) ist ein vielversprechender neuer Ansatz für viele reale Planungs- und Steuerungsprobleme. Allerdings sind gängige DNNs zu unstrukturiert für eine effektive Planung, und aktuelle Steuerungsmethoden stützen sich typischerweise auf umfangreiche Stichproben oder lokalen Gradientenabstieg. In diesem Artikel schlagen wir ein neues Framework für integriertes Modelllernen und prädiktive Steuerung vor, das sich für effiziente Optimierungsalgorithmen eignet. Konkret beginnen wir mit einem ReLU-Neuronalmodell der Systemdynamik und sparsifizieren es schrittweise durch das Entfernen redundanter Neuronen, wobei die Vorhersagegenauigkeit nur minimal beeinträchtigt wird. Dieser diskrete Sparsifizierungsprozess wird als kontinuierliches Problem approximiert, was eine end-to-end-Optimierung sowohl der Modellarchitektur als auch der Gewichtsparameter ermöglicht. Das sparsifizierte Modell wird anschließend von einem gemischt-ganzzahligen prädiktiven Regler verwendet, der die Neuronaktivierungen als binäre Variablen darstellt und effiziente Branch-and-Bound-Algorithmen einsetzt. Unser Framework ist auf eine Vielzahl von DNNs anwendbar, von einfachen mehrschichtigen Perzeptronen bis hin zu komplexen graphbasierten neuronalen Dynamiken. Es kann Aufgaben mit komplizierten Kontaktdynamiken effizient bewältigen, wie beispielsweise das Schieben von Objekten, das sortieren von zusammengesetzten Objekten und die Manipulation von deformierbaren Objekten. Numerische und Hardware-Experimente zeigen, dass unser Framework trotz der aggressiven Sparsifizierung eine bessere Regelkreisperformance liefern kann als bestehende state-of-the-art Methoden.
English
Learning predictive models from observations using deep neural networks (DNNs) is a promising new approach to many real-world planning and control problems. However, common DNNs are too unstructured for effective planning, and current control methods typically rely on extensive sampling or local gradient descent. In this paper, we propose a new framework for integrated model learning and predictive control that is amenable to efficient optimization algorithms. Specifically, we start with a ReLU neural model of the system dynamics and, with minimal losses in prediction accuracy, we gradually sparsify it by removing redundant neurons. This discrete sparsification process is approximated as a continuous problem, enabling an end-to-end optimization of both the model architecture and the weight parameters. The sparsified model is subsequently used by a mixed-integer predictive controller, which represents the neuron activations as binary variables and employs efficient branch-and-bound algorithms. Our framework is applicable to a wide variety of DNNs, from simple multilayer perceptrons to complex graph neural dynamics. It can efficiently handle tasks involving complicated contact dynamics, such as object pushing, compositional object sorting, and manipulation of deformable objects. Numerical and hardware experiments show that, despite the aggressive sparsification, our framework can deliver better closed-loop performance than existing state-of-the-art methods.
PDF70December 15, 2024