Please use this identifier to cite or link to this item:
http://hdl.handle.net/1843/42685
Full metadata record
DC Field | Value | Language |
---|---|---|
dc.contributor.advisor1 | Luiz Henrique Duczmal | pt_BR |
dc.contributor.advisor1Lattes | http://lattes.cnpq.br/2491660334904294 | pt_BR |
dc.contributor.advisor-co1 | Denise Bulgarelli Duczmal | pt_BR |
dc.contributor.referee1 | Ivair Ramos Silva | pt_BR |
dc.contributor.referee2 | Thiago Rezende dos Santos | pt_BR |
dc.contributor.referee3 | Sokol Ndreca | pt_BR |
dc.contributor.referee4 | Felipe Carvalho Álvares da Silva | pt_BR |
dc.contributor.referee5 | Reinaldo Antônio Gomes Marques | pt_BR |
dc.creator | Uriel Moreira Silva | pt_BR |
dc.creator.Lattes | http://lattes.cnpq.br/0535438200987820 | pt_BR |
dc.date.accessioned | 2022-06-25T17:31:56Z | - |
dc.date.available | 2022-06-25T17:31:56Z | - |
dc.date.issued | 2020-11-27 | - |
dc.identifier.uri | http://hdl.handle.net/1843/42685 | - |
dc.description.abstract | Nessa tese é introduzido um novo paradigma de aprendizagem de parâmetros sequencial em modelos de Markov ocultos, capaz de acomodar vários outros algoritmos encontrados na literatura como casos particulares. Essa generalidade é possível principalmente devido à um formalismo alternativo para regularização nesses modelos. Para ilustrar a flexibilidade do novo paradigma, foram desenvolvidos três novos algoritmos, incluindo uma versão melhorada e completamente adaptada do clássico filtro de Liu e West. Considerando também esquemas de reamostragem mais eficientes, é ilustrado que em alguns casos o desempenho inadequado de alguns algoritmos de aprendizagem de parâmetros sequencial previamente observado na literatura pode em sua maioria ser atribuído à degeneração de caminhos inerente à esses métodos, degeneração essa que a metodologia proposta ativamente busca mitigar. Destaca-se também que é fornecida evidência de que os algoritmos para aprendizagem de parâmetros discutidos aqui podem fornecer estimativas compatíveis com algoritmos computacionalmente intensivos e que compõem o estado da arte dessa literatura, como Monte Carlo via cadeias de Markov baseados em métodos de partículas. | pt_BR |
dc.description.resumo | In this thesis we introduce a novel framework for sequential parameter learning in Hidden Markov models capable of accommodating several other algorithms found in the literature as special cases. This generality is achieved mainly by providing an alternative formalism to the role of regularization in this setting. In order to illustrate the flexibility allowed by this framework, we develop three novel algorithms, including an improved and fully-adapted version of the celebrated Liu and West filter. By also considering more efficient resampling schemes, we illustrate that in some cases the poor performance of sequential parameter learning algorithms previously observed in the literature can mostly be attributed to the inherent path degeneracy in these methods, which we actively aim to mitigate. Crucially, we also provide evidence that the parameter learning algorithms discussed here can provide estimates that are compatible with state-of-the-art computationally intensive algorithms, such as particle Markov Chain Monte Carlo. | pt_BR |
dc.description.sponsorship | CNPq - Conselho Nacional de Desenvolvimento Científico e Tecnológico | pt_BR |
dc.description.sponsorship | FAPEMIG - Fundação de Amparo à Pesquisa do Estado de Minas Gerais | pt_BR |
dc.description.sponsorship | CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior | pt_BR |
dc.language | eng | pt_BR |
dc.publisher | Universidade Federal de Minas Gerais | pt_BR |
dc.publisher.country | Brasil | pt_BR |
dc.publisher.department | ICX - DEPARTAMENTO DE ESTATÍSTICA | pt_BR |
dc.publisher.program | Programa de Pós-Graduação em Estatística | pt_BR |
dc.publisher.initials | UFMG | pt_BR |
dc.rights | Acesso Aberto | pt_BR |
dc.subject | Inferência Bayesiana | pt_BR |
dc.subject | Métodos de Monte Carlo sequenciais | pt_BR |
dc.subject | Modelos de Markov ocultos | pt_BR |
dc.subject | Bayesian inference | pt_BR |
dc.subject | Sequential Monte Carlo methods | pt_BR |
dc.subject | Hidden Markov models | pt_BR |
dc.subject.other | Estatística – Teses | pt_BR |
dc.subject.other | Inferência bayesiana – Teses | pt_BR |
dc.subject.other | Monte Carlo, Método de. - Teses | pt_BR |
dc.subject.other | Markov, processos de. - Teses | pt_BR |
dc.title | A General framework for parameter learning with regularization | pt_BR |
dc.title.alternative | Um paradigma geral para aprendizagem de parâmetros sequencial com regularização | pt_BR |
dc.type | Tese | pt_BR |
dc.identifier.orcid | https://orcid.org/0000-0001-7640-2530 | pt_BR |
Appears in Collections: | Teses de Doutorado |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
tese_UMS_final.pdf | 5.26 MB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.