Toward Multi-Agent Reinforcement Learning for Distributed Event-Triggered Control

Lukas Kesper, Sebastian Trimpe, Dominik Baumann

Tutkimustuotos: Artikkeli kirjassa/konferenssijulkaisussaConference article in proceedingsScientificvertaisarvioitu

62 Lataukset (Pure)

Abstrakti

Event-triggered communication and control provide high control performance in networked control systems without overloading the communication network. However, most approaches require precise mathematical models of the system dynamics, which may not always be available. Model-free learning of communication and control policies provides an alternative. Nevertheless, existing methods typically consider single-agent settings. This paper proposes a model-free reinforcement learning algorithm that jointly learns resource-aware communication and control policies for distributed multi-agent systems from data. We evaluate the algorithm in a high-dimensional and nonlinear simulation example and discuss promising avenues for further research.
AlkuperäiskieliEnglanti
OtsikkoProceedings of the Learning for Dynamics and Control Conference
KustantajaJMLR
Sivut1072-1085
Sivumäärä14
Vuosikerta211
TilaJulkaistu - 1 kesäk. 2023
OKM-julkaisutyyppiA4 Artikkeli konferenssijulkaisussa
TapahtumaLearning for Dynamics and Control - University of Pennsylvania, Philadelphia, Yhdysvallat
Kesto: 14 kesäk. 202316 kesäk. 2023
Konferenssinumero: 5
https://l4dc.seas.upenn.edu/

Julkaisusarja

NimiProceedings of Machine Learning Research
ISSN (elektroninen)2640-3498

Conference

ConferenceLearning for Dynamics and Control
LyhennettäL4DC
Maa/AlueYhdysvallat
KaupunkiPhiladelphia
Ajanjakso14/06/202316/06/2023
www-osoite

Sormenjälki

Sukella tutkimusaiheisiin 'Toward Multi-Agent Reinforcement Learning for Distributed Event-Triggered Control'. Ne muodostavat yhdessä ainutlaatuisen sormenjäljen.

Siteeraa tätä