Publication detail
Improvement of Q-learning Used for Control of AMB
BŘEZINA, T. KREJSA, J. VĚCHET, S.
Czech title
Zlepšení Q-učení použitého pro řízení AML
English title
Improvement of Q-learning Used for Control of AMB
Type
conference paper
Language
en
Original abstract
Active magnetic bearing (AMB) is perspective design element; however AMB itself is unstable and must be stabilized by feedback control loop. Artificial intelligence methods, which use real time machine learning, can be used for the proposition of new control methods, which either improve the AMB control, or require less complex control electronics. The paper is focused on use of reinforcement learning version called Q-learning. As the conventional Q-learning architectures learning process is too slow to be practical for real control tasks, the paper proposes improvement of Q-learning by partitioning the learning process into two phases: prelearning phase and tutorage phase. Prelearning phase requires computational model but is highly efficient, tutorage phase uses conventional real time Q-learning and assumes the interaction with the real system. To demonstrate the qualities of developed controllers the performance of AMB model controlled by such controller is compared with the performance of AMB model controlled by referential PID controller.
Czech abstract
Aktivní magnetické ložisko (AML) je perspektivní návrhový prvek; ale AML samo je nestabilní a musí být stabilizováno zpětnovazební smyčkou. Metody umělé inteligence, které používají strojové učení v reálném čase lze použít pro návrh nových metod řízení, které jednak zlepšují řízení AML nebo vyžadují méně složitou řídicí elektroniku. Článek se soustřeďuje na použití verze opakovaně posilovaného učení, která se nazývá Q-učení. Protože konvenční architektury Q-učené jsou příliš pomalé na to, aby byly použitelné pro úlohy řízení, článek navrhuje zlepšení Q-učení rozdělením Q-učení do dvou fází: fáze předučení a doučovací fáze. Fáze předučení vyžaduje výpočtový model, ale je vysoce efektivní, doučovací fáze používá konvenční Q-učení v reálném čase a předpokládá interakci se soustavou. K demonstrování povahy vyvinutých řídicích členů je porovnáno chování modelu AML řízeného takovým řídicím členem s modelem řízeným referenčním PID.
English abstract
Active magnetic bearing (AMB) is perspective design element; however AMB itself is unstable and must be stabilized by feedback control loop. Artificial intelligence methods, which use real time machine learning, can be used for the proposition of new control methods, which either improve the AMB control, or require less complex control electronics. The paper is focused on use of reinforcement learning version called Q-learning. As the conventional Q-learning architectures learning process is too slow to be practical for real control tasks, the paper proposes improvement of Q-learning by partitioning the learning process into two phases: prelearning phase and tutorage phase. Prelearning phase requires computational model but is highly efficient, tutorage phase uses conventional real time Q-learning and assumes the interaction with the real system. To demonstrate the qualities of developed controllers the performance of AMB model controlled by such controller is compared with the performance of AMB model controlled by referential PID controller.
Keywords in English
Control, Q-learning, Active Magnetic Bearing
RIV year
2003
Released
24.09.2003
Location
Košice, Slovak Republik
ISBN
80-89061-77-X
Book
Electrical Drives and Power Electronics 2003
Edition number
Neuveden
Pages count
4
BIBTEX
@inproceedings{BUT8152,
author="Tomáš {Březina} and Jiří {Krejsa} and Stanislav {Věchet},
title="Improvement of Q-learning Used for Control of AMB",
booktitle="Electrical Drives and Power Electronics 2003",
year="2003",
month="September",
address="Košice, Slovak Republik",
isbn="80-89061-77-X"
}