Please use this identifier to cite or link to this item: http://hdl.handle.net/1843/ESBF-9GNGG3
Full metadata record
DC FieldValueLanguage
dc.contributor.advisor1Adriano Alonso Velosopt_BR
dc.contributor.advisor-co1Nivio Zivianipt_BR
dc.contributor.referee1Berthier Ribeiro de Araujo Netopt_BR
dc.contributor.referee2Renato Antonio Celso Ferreirapt_BR
dc.creatorItamar Sakae Viana Hatapt_BR
dc.date.accessioned2019-08-14T03:38:44Z-
dc.date.available2019-08-14T03:38:44Z-
dc.date.issued2013-12-12pt_BR
dc.identifier.urihttp://hdl.handle.net/1843/ESBF-9GNGG3-
dc.description.abstractBuilding a Machine Learning application, typically requires an expert who defines the objectives and data that have a causal relationship with these objectives, selects the best model that fits the assumptions and data, conducts some experiments and analyses the quality of the solution. In the analysis phase, a fundamental property of the model is its interpretability. In some application domains, such as medical or business, the interpretability is taken as a differential solution. To build an interpretable model, it is recommended the use of few features within the parsimony principle, which states that everything being equal, simpler explanations are preferable. Recently, this principle has shown to be well suited to associative classifiers, where the number of rules composing the classifier can be substantially reduced by using condensed representations such as maximal or closed rules. However, the remaining amount of rules is still large, and the resulting models are hard to interpret. In this work we propose a more aggressive filtering strategy, which decreases the number of rules within the classifier without hurting its accuracy. Our strategy consists in evaluating each rule under different statistical criteria, and filtering only those rules that show a positive balance between all the criteria considered. Specifically, each candidate rule is associated with a point in an n-dimensional scatter-gram, where each coordinate corresponds to a statistical criterion. Points that are not dominated by any other point in the scatter-gram compose the Pareto frontier, and correspond to rules that are optimal in the sense that there is no rule that is better off when all the criteria are taken into account. Finally, rules lying in the Pareto frontier are filtered and compose the classifier. A systematic set of experiments involving benchmark data as well as recent data from actual application scenarios, followed by an extensive set of significance tests, reveal that the proposed strategy decreases the number of rules by up to two orders of magnitude and produces classifiers that are more readable without hurting accuracy.pt_BR
dc.description.resumoNa construção de uma aplicação de aprendizado de máquina, um especialista define seu objetivo, determina, baseado em algumas hipóteses, os dados que possuem uma relação causal com o objetivo, seleciona o modelo que melhor se adequa a suas hipóteses e dados, realiza experimentos e analisa a qualidade da solução. Na fase de análise, uma propriedade fundamental do modelo é a interpretabilidade. Em alguns domínios de aplicação, como médica ou de negócios, a interpretabilidade é tida como diferencial. Para que um modelo seja interpretável é indicado que ele possua poucos atributos e siga o princípio da parcimônia no qual, dentre explicações equivalentes, as mais simples são preferíveis. Esse princípio tem se mostrado adequado para classificadores baseados em regras de associação, nos quais a quantidade de regras utilizadas podem ser substancialmente reduzidas utilizando-se representações condensadas, como os conjuntos máximos ou fechados. Porém, a quantidade restante de regras ainda é grande, sendo os modelos resultantes de difícil interpretabilidade. Neste trabalho, propomos uma estratégia de redução mais agressiva, que ao mesmo tempo mantem a acurácia do classificador. Essa estratégia consiste em avaliarcada regra sob um critério estatístico e filtrar as melhores. Cada regra representa um ponto num espaço no qual cada dimensão é representada por um critério estatístico. Pontos que não são dominados por nenhum outro compõem a fronteira de Pareto e correspondem às regras que são ótimas, dado que não existe regra que possa ser melhor do que elas nos critérios selecionados. Um conjunto sistemático de experimentos envolvendo dados de referência, assim como dados de aplicações atuais, seguido de um conjunto extensivo de testes de significância, revelam que a estratégia proposta foi capaz de reduzir em até duas ordens de grandeza (reduções de até 96%) a quantidade de regras utilizadas na classificação, produzindo classificadores mais interpretáveis, sem prejudicar a acurácia dos modelos.pt_BR
dc.languagePortuguêspt_BR
dc.publisherUniversidade Federal de Minas Geraispt_BR
dc.publisher.initialsUFMGpt_BR
dc.rightsAcesso Abertopt_BR
dc.subjectParetopt_BR
dc.subjectParcimôniapt_BR
dc.subjectAprendizado de máquinapt_BR
dc.subjectInterpretávelpt_BR
dc.subject.otherAprendizado do computadorpt_BR
dc.subject.otherComputaçãopt_BR
dc.titleClassificadores de alta interpretabilidade e de alta precisãopt_BR
dc.typeDissertação de Mestradopt_BR
Appears in Collections:Dissertações de Mestrado

Files in This Item:
File Description SizeFormat 
itamarsakae.pdf934.13 kBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.