Please use this identifier to cite or link to this item: http://hdl.handle.net/1843/BUBD-AX2NLF
Full metadata record
DC FieldValueLanguage
dc.contributor.advisor1Andre Paim Lemospt_BR
dc.contributor.referee1Antonio de Padua Bragapt_BR
dc.contributor.referee2Cristiano Leite de Castropt_BR
dc.creatorWagner José de Alvarenga Júniorpt_BR
dc.date.accessioned2019-08-13T04:36:16Z-
dc.date.available2019-08-13T04:36:16Z-
dc.date.issued2018-02-06pt_BR
dc.identifier.urihttp://hdl.handle.net/1843/BUBD-AX2NLF-
dc.description.abstractMachine Learning has become a fundamental tool for some areas of knowledge. Much of its strength lies in the existing of dierents levels of complexity for a model and existence of adjustments for its training algorithm. These settings allow the achievement of models with lower generatization error. Hyperparameter is a type of variable that controls these functions and needs to be set even before the training procedure is carried out. Therefore the estimation of their optimum values is crutial to obtain a ne model. This work aims to compare the performance of the following hyperparametric optimization methods: Grid Search, Random Search and Bayesian optimization (using Gaussian Process). These three techniques are applied on tuning of hyperparameters from two types of learing models: Decision Tree and Random Florest. For such comparisons, hyperparaments related to tree depth control and decorrelation level between predictors of a random forest were chosen. These two learning algorithms are applied on binary classication problems, using different datasets.The results obtained show that for a same number of model trainings, the Bayesian optimization technique provides better results comparing to the other methods.pt_BR
dc.description.resumoO Aprendizado de Máquina se tornou uma ferramenta fundamental para algumas áreas do conhecimento. Muito de sua robustez reside na existência de diferentes níveis de complexidade para um modelo, que podem vir a serem escolhidos, assim como as possíveis congurações do algoritmo de treinamento. Estes ajustes impactam diretamente no erro de generalização do modelo. Hiperparâmetros são as variáveis que controlam estas funções, e que precisam de uma denição de valor antes mesmo que o treinamento do modelo seja realizado. Por isto, a estimação do valor ótimo para o(s) hiperparâmetro(s) é fundamental para a obtenção de um modelo com melhor desempenho de predição. O presente trabalho possui o objetivo de comparar o desempenho dos métodos de otimização hiperparamétrica: Busca em Grade, Busca Aleatória e otimização Bayesiana (com o uso do Processo Gaussiano), na sintonia de hiperparâmetros dos modelos de aprendizado: Árvore de Decisão e Floreta Aleatória. Nestes modelos, são testados hiperparâmetros que controlam o crescimento de uma árvore, e que dene o grau de descorrelação entre as árvores de uma oresta aleatória. Estes dois algoritmos de aprendizado são empregados em problemas de Classicação binária, utilizando diferentes conjuntos de dados. Os resultados obtidos mostram que para um mesmo número de treinamentos, a técnica de otimização Bayesiana proporciona melhores resultados que os outros dois métodos testados.pt_BR
dc.languagePortuguêspt_BR
dc.publisherUniversidade Federal de Minas Geraispt_BR
dc.publisher.initialsUFMGpt_BR
dc.rightsAcesso Abertopt_BR
dc.subjectOtimização hiperparamétricapt_BR
dc.subjectOtimização bayesianapt_BR
dc.subjectÁrvore de decisãopt_BR
dc.subjectFloresta aleatóriapt_BR
dc.subjectBusca em gradept_BR
dc.subjectBusca aleatóriapt_BR
dc.subject.otherEngenharia elétricapt_BR
dc.subject.otherFloresta aleatóriapt_BR
dc.subject.otherÁrvores de decisãopt_BR
dc.subject.otherAprendizado do computadorpt_BR
dc.titleMétodos de otimização hiperparamétrica: um estudo comparativo utilizando árvores de decisão e florestas aleatórias na classificação bináriapt_BR
dc.typeDissertação de Mestradopt_BR
Appears in Collections:Dissertações de Mestrado

Files in This Item:
File Description SizeFormat 
vers_o_final___wagner_alvarenga___disserta__o___m_todos_de_otimiza__o__hiperparam_trica.pdf5.82 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.