Please use this identifier to cite or link to this item: http://hdl.handle.net/1843/46005
Full metadata record
DC FieldValueLanguage
dc.contributor.advisor1Cristiano Arbex Vallept_BR
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/0174881389877841pt_BR
dc.contributor.advisor-co1Humberto César Brandão de Oliveirapt_BR
dc.contributor.referee1Gisele Lobo Pappapt_BR
dc.contributor.referee2Túlio Ângelo Machado Toffolopt_BR
dc.creatorMarcelo Antônio Mendes Bastospt_BR
dc.creator.Latteshttp://lattes.cnpq.br/5590452083187247pt_BR
dc.date.accessioned2022-10-05T23:53:50Z-
dc.date.available2022-10-05T23:53:50Z-
dc.date.issued2021-03-29-
dc.identifier.urihttp://hdl.handle.net/1843/46005-
dc.description.abstractAprendizagem por ensemble utiliza múltiplos classificadores na expectativa de obter um melhor desempenho preditivo. Estudos empíricos vem mostrando que a poda de ensembles, isto é, a escolha de um subconjunto apropriado dos classificadores disponíveis, pode levar a previsões comparáveis ou melhores do que usar todos os classificadores. Nesta dissertação, consideramos um problema de classificação binária e propomos uma abordagem de programação inteira (PI) para selecionar subconjuntos de classificadores ótimos. Propomos uma função objetivo flexível para se adaptar aos critérios desejados de diferentes conjuntos de dados. Também propomos restrições para garantir níveis mínimos de diversidade no conjunto. Apesar do caso geral de PI ser NP-Difícil, os solvers de última geração são capazes de obter rapidamente boas soluções para conjuntos de dados com até 60.000 pontos de dados. Nossa abordagem produz resultados competitivos quando comparados a outros algoritmos de poda na literatura.pt_BR
dc.description.resumoEnsemble learning uses multiple classifiers in the hope of obtaining better predictive performance. Empirical studies have shown that ensemble pruning, that is, choosing an appropriate subset of the available classifiers, can lead to comparable or better predictions than using all classifiers. In this thesis, we consider a binary classification problem and propose an integer programming (IP) approach for selecting optimal classifier subsets. We propose a flexible objective function to adapt to desired criteria of different datasets. We also propose constraints to ensure minimum diversity levels in the ensemble. Despite the general case of IP being NP-Hard, state-of-the-art solvers are able to quickly obtain good solutions for datasets with up to 60000 data points. Our approach yields competitive results when compared to others pruning algorithms in literature.pt_BR
dc.description.sponsorshipCNPq - Conselho Nacional de Desenvolvimento Científico e Tecnológicopt_BR
dc.languageengpt_BR
dc.publisherUniversidade Federal de Minas Geraispt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentICX - DEPARTAMENTO DE CIÊNCIA DA COMPUTAÇÃOpt_BR
dc.publisher.programPrograma de Pós-Graduação em Ciência da Computaçãopt_BR
dc.publisher.initialsUFMGpt_BR
dc.rightsAcesso Restritopt_BR
dc.subjectInteger Programmingpt_BR
dc.subjectEnsemble Pruningpt_BR
dc.subjectEnsemble Selectionpt_BR
dc.subjectClassificationpt_BR
dc.subject.otherComputação – Tesespt_BR
dc.subject.otherAprendizagem por Ensemble – Tesespt_BR
dc.subject.otherAprendizado do computador – Tesespt_BR
dc.subject.otherProgramação Inteira – Tesespt_BR
dc.titleEnsemble pruning via an integer programming approach with diversity constraintspt_BR
dc.title.alternativePoda de Ensemble via uma abordagem de programação inteira com restrições de diversidadept_BR
dc.typeDissertaçãopt_BR
dc.description.embargo2023-03-29-
Appears in Collections:Dissertações de Mestrado

Files in This Item:
File Description SizeFormat 
Dissertacao_de_mestrado_final.pdf1.04 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.