Please use this identifier to cite or link to this item: http://hdl.handle.net/1843/34512
Full metadata record
DC FieldValueLanguage
dc.contributor.advisor1Carlos Andrey Maiapt_BR
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/3301192467372459pt_BR
dc.contributor.advisor-co1Vinicius Mariano Gonçalvespt_BR
dc.contributor.referee1Guilherme Augusto Silva Pereirapt_BR
dc.contributor.referee2Gustavo Medeiros Freitaspt_BR
dc.contributor.referee3Armando Alves Netopt_BR
dc.creatorNeemias Silva Monteiropt_BR
dc.creator.Latteshttp://lattes.cnpq.br/6472412732023809pt_BR
dc.date.accessioned2020-12-15T17:18:13Z-
dc.date.available2020-12-15T17:18:13Z-
dc.date.issued2020-02-18-
dc.identifier.urihttp://hdl.handle.net/1843/34512-
dc.description.abstractDeterministic motion planners perform well in simulated environments, where sensors and actuators are perfect. However, these assumptions are restrictive and consequently motion planning will have poor performance if applied to real robotic systems (or a more realistic simulator), as they are inherently fraught with uncertainty. In most real robotic systems, states cannot be directly observed, and measurements received by the robot are noisy projections of the true state. The actions performed by a robot have uncertainties, given that the robot’s actuators make mistakes when following the desired control commands. Thus, the robot must make use of a new class of planners that take into account system uncertainties when making a decision. In the present work, the Partially Observable Markov Decision Process (POMDP) is presented as an alternative to solve problems immersed in uncertainties, selecting optimal actions aiming to perform a given task. POMDP is a probabilistic method that considers: that robot states cannot be measured directly, but are inferred through indirect observations; that the decisions taken have uncertain results; and that the result of an action in a state depends only on the action and the current state of the process (Markovian property). In POMDP, each action results in an observation, probabilistically related to states of the system. Instead of a current system state, in POMDP there is a probability distribution over states, called belief. To estimate the belief, this work used the probabilistic structure of the Hidden Markov Model (HMM). The above methodology was applied to a simulated system for localization and controlling the actions of a robot that moves around a warehouse used for products storage, as well as for navigating a real robot in a living space. Simulations and experiments show the robustness and efficiency of the methods used.pt_BR
dc.description.resumoOs planejadores de movimento determinísticos apresentam bons resultados em ambientes simulados, nos quais os sensores e atuadores são perfeitos. No entanto, estas suposições são restritivas e consequentemente o planejamento de movimento terá desempenho comprometido se aplicado em sistemas robóticos reais (ou em um simulador mais realístico), pois os mesmos são inerentemente carregados de incertezas. Na maioria dos sistemas robóticos reais, os estados não podem ser diretamente observados, e as medições recebidas pelo robô são projeções ruidosas do verdadeiro estado. As ações executadas por um robô também têm incertezas, dado que os atuadores do robô cometem erros ao seguir os comandos de controle desejados. Deste modo, o robô deve fazer uso de uma nova classe de planejadores que levam em conta as incertezas do sistema quando tiver que tomar uma decisão. No presente trabalho, o Processo de Decisão de Markov Parcialmente Observável (PDMPO, ou POMDP em inglês), é apresentado como alternativa para solucionar problemas imersos em incertezas, selecionando ações ótimas com objetivo de realizar uma dada tarefa. O PDMPO é um método probabilístico que considera: que os estados do robô não podem ser medidos diretamente, mas são inferidos por meio de observações indiretas; que as decisões tomadas têm resultados incertos; e que o resultado de uma ação em um estado depende apenas da ação e do estado atual do processo (propriedade Markoviana). No PDMPO cada ação tem como resultado uma observação, probabilisticamente relacionada aos estados do sistema. Em vez de um estado atual do sistema, no PDMPO há uma distribuição de probabilidade sobre os estados, denominada crença. Para estimativa da crença, este trabalho utiliza a estrutura probabilística do Modelo Oculto de Markov (MOM, ou HMM em inglês). O ferramental acima foi aplicado em um sistema simulado de localização e controle das ações de um robô que se locomove por um galpão usado para estocagem de produtos, e também para navegação de um robô real em um espaço de convivência. As simulações e experimentos mostram a robustez e eficiência dos métodos utilizados.pt_BR
dc.description.sponsorshipCNPq - Conselho Nacional de Desenvolvimento Científico e Tecnológicopt_BR
dc.languageporpt_BR
dc.publisherUniversidade Federal de Minas Geraispt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentENG - DEPARTAMENTO DE ENGENHARIA ELÉTRICApt_BR
dc.publisher.programPrograma de Pós-Graduação em Engenharia Elétricapt_BR
dc.publisher.initialsUFMGpt_BR
dc.rightsAcesso Abertopt_BR
dc.subjectIncertezaspt_BR
dc.subjectLocalizaçãopt_BR
dc.subjectModelo oculto de Markovpt_BR
dc.subjectPlanejamento de movimentopt_BR
dc.subjectProcesso de decisão de Markov parcialmente observávelpt_BR
dc.subjectRobótica probabilísticapt_BR
dc.subject.otherEngenharia elétricapt_BR
dc.subject.otherIncertezapt_BR
dc.subject.otherRobóticapt_BR
dc.titleLocalização e planejamento de movimento de robôs móveis em ambientes internos utilizando processos de decisão de Markovpt_BR
dc.typeDissertaçãopt_BR
Appears in Collections:Dissertações de Mestrado



Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.