Online optimal auto-tuning of PID controllers for tracking in a special class of linear systems
| dc.creator | Márcio Fantini Miranda | |
| dc.creator | Kyriakos Vamvoudakis | |
| dc.date.accessioned | 2022-02-25T15:49:21Z | |
| dc.date.accessioned | 2025-09-09T00:40:10Z | |
| dc.date.available | 2022-02-25T15:49:21Z | |
| dc.date.issued | 2016 | |
| dc.description.abstract | Este artigo propõe um algoritmo de aprendizado por reforço (RL) baseado em programação dinâmica aproximada para auto-ajustar de forma otimizada um controlador Proporcional Integral Derivado (PID) resolvendo um problema de controle de rastreamento ótimo de horizonte infinito para uma classe especial de sistemas lineares. O algoritmo é baseado em uma estrutura ator/crítico onde um aproximador crítico é usado para aprender o custo ótimo e um aproximador ator é usado para aprender os ganhos ótimos do PID. A natureza de controle adaptativo do algoritmo requer uma persistência da condição de excitação para ser validada a priori, mas isso pode ser relaxado usando dados previamente armazenados simultaneamente com dados atuais na sintonia do aproximador crítico. Os resultados da simulação mostram a eficácia da abordagem proposta para um reator de usina de tanque agitado. | |
| dc.identifier.doi | 10.1109/ACC.2016.7526523 | |
| dc.identifier.issn | 2378-5861 | |
| dc.identifier.uri | https://hdl.handle.net/1843/39710 | |
| dc.language | eng | |
| dc.publisher | Universidade Federal de Minas Gerais | |
| dc.relation.ispartof | 2016 American Control Conference (ACC) | |
| dc.rights | Acesso Restrito | |
| dc.subject | Aprendizado por reforço | |
| dc.subject | Derivada Integral Proporcional | |
| dc.subject | Algorítimo | |
| dc.title | Online optimal auto-tuning of PID controllers for tracking in a special class of linear systems | |
| dc.title.alternative | Auto-ajuste otimizado on-line de controladores PID para rastreamento em uma classe especial de sistemas lineares | |
| dc.type | Artigo de evento | |
| local.description.resumo | This paper proposes a reinforcement learning (RL) algorithm based on approximate dynamic programming to optimally auto-tune a Proportional Integral Derivative (PID) controller by solving an infinite-horizon optimal tracking control problem for a special class of linear systems. The algorithm is based on an actor/critic framework where a critic approximator is used to learn the optimal cost and an actor approximator is used to learn the optimal PID gains. The adaptive control nature of the algorithm requires a persistence of excitation condition to be a-priori validated, but this can be relaxed by using previously stored data concurrently with current data in the tuning of the critic approximator. Simulation results show the effectiveness of the proposed approach for a stirred-tank plant reactor. | |
| local.publisher.country | Brasil | |
| local.publisher.department | COLTEC - COLEGIO TECNICO | |
| local.publisher.initials | UFMG | |
| local.url.externa | https://ieeexplore.ieee.org/document/7526523 |
Arquivos
Licença do pacote
1 - 1 de 1