Use este identificador para citar ou linkar para este item: http://hdl.handle.net/1843/51162
Tipo: Dissertação
Título: Aplicação de aprendizado por reforço em navegação de rôbos
Título(s) alternativo(s): Application of reinforcement learning in robot navigation
Autor(es): Wilson Salomão Félix Júnior
Primeiro Orientador: Vinícius Mariano Gonçalves
Primeiro membro da banca : Adriano Veloso
Segundo membro da banca: Armando Alves Neto
Resumo: O estudo e a utilização de robôs para atender as necessidades do ser humano tem sido estudada de forma profunda desde o último século. Umas das principais pesquisas é como realizar o movimento de robôs de forma autônoma, segura e eficiente, fazendo com que eles realizem tarefas que precisam de locomoção. No entanto, é comum que seja difícil construir ou seguir caminhos que respeitem as diversas restrições do ambiente, como por exemplo, presença de obstáculos, restrições no movimento ou limitações no sensoriamento do robô. Recentemente, uma das áreas que tem ganhado notoriedade dentro da comunidade científica é o aprendizado por reforço profundo, que reúne os conceitos de aprendizagem por reforço, uma sub-área da aprendizagem de máquina, com as últimas inovações produzidas pelo aprendizado profundo, outro campo muito estudado com diversos resultados expressivos obtidos. Ainda que inicialmente as primeiras aplicações tenham sido no setor de jogos virtuais, vários pesquisadores vem propondo aplicar essas técnicas em sistemas robóticos, para tarefas de manipulação, locomoção, entre várias outras. Neste sentido, esta dissertação irá apresentar algumas ferramentas e algoritmos propostas na área de aprendizagem por reforço profundo, que farão com um robô móvel seja capaz de aprender a se deslocar para um alvo em um cenário com obstáculos. Além disso, este trabalho irá propor um algoritmo que realiza o aprendizado do melhor caminho de acordo com a tarefa de forma contínua, melhorando o caminho percorrido a medida que o robô conclui as tarefas.
Abstract: The study and the usage of robots to assist humanity has been studied deeply since the past century. One of the main researches is to perform the robot motion autonomously, safely and efficiently, in such a way that they perform tasks that may need locomotion. However, it is common that the desired path be complicated to build or follow, while some constraints of the environment have to be considered, such as, obstacle avoidance, moviment constraints or limitation on robot sensors. Recently, one of the areas that has achieved notoriety in the research community is deep reinforcement learning, which assembles concepts of reinforcement learning, one sub-area of machine learning, with the lastest breakthroughs of deep learning, another research field with several expressive results. Even considering that the first applications were in video games, many researchers have been proposing to apply these techniques in robot systems, for many tasks, for example, manipulation and locomotion. In this way, this dissertation will present some tools and algorithms recently proposed in deep reinforcement learning, which will make the robot capable of learning to move to a target in a scenario with obstacles. Besides that, this work will propose an algorithm that performs the learning of the best path according to the task continuously, improving the path travelled as the robot finalizes the tasks.
Assunto: Engenharia elétrica
Aprendizado profundo
Robótica
Programação dinâmica
Idioma: por
País: Brasil
Editor: Universidade Federal de Minas Gerais
Sigla da Instituição: UFMG
Departamento: ENG - DEPARTAMENTO DE ENGENHARIA ELÉTRICA
Curso: Programa de Pós-Graduação em Engenharia Elétrica
Tipo de Acesso: Acesso Aberto
URI: http://hdl.handle.net/1843/51162
Data do documento: 29-Abr-2022
Aparece nas coleções:Dissertações de Mestrado

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
AplicacaoAprendizadoPorReforcoEmNavegacaoDeRobos.pdf6.51 MBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.