Please use this identifier to cite or link to this item: http://hdl.handle.net/1843/ESBF-9GNGG3
Type: Dissertação de Mestrado
Title: Classificadores de alta interpretabilidade e de alta precisão
Authors: Itamar Sakae Viana Hata
First Advisor: Adriano Alonso Veloso
First Co-advisor: Nivio Ziviani
First Referee: Berthier Ribeiro de Araujo Neto
Second Referee: Renato Antonio Celso Ferreira
Abstract: Na construção de uma aplicação de aprendizado de máquina, um especialista define seu objetivo, determina, baseado em algumas hipóteses, os dados que possuem uma relação causal com o objetivo, seleciona o modelo que melhor se adequa a suas hipóteses e dados, realiza experimentos e analisa a qualidade da solução. Na fase de análise, uma propriedade fundamental do modelo é a interpretabilidade. Em alguns domínios de aplicação, como médica ou de negócios, a interpretabilidade é tida como diferencial. Para que um modelo seja interpretável é indicado que ele possua poucos atributos e siga o princípio da parcimônia no qual, dentre explicações equivalentes, as mais simples são preferíveis. Esse princípio tem se mostrado adequado para classificadores baseados em regras de associação, nos quais a quantidade de regras utilizadas podem ser substancialmente reduzidas utilizando-se representações condensadas, como os conjuntos máximos ou fechados. Porém, a quantidade restante de regras ainda é grande, sendo os modelos resultantes de difícil interpretabilidade. Neste trabalho, propomos uma estratégia de redução mais agressiva, que ao mesmo tempo mantem a acurácia do classificador. Essa estratégia consiste em avaliarcada regra sob um critério estatístico e filtrar as melhores. Cada regra representa um ponto num espaço no qual cada dimensão é representada por um critério estatístico. Pontos que não são dominados por nenhum outro compõem a fronteira de Pareto e correspondem às regras que são ótimas, dado que não existe regra que possa ser melhor do que elas nos critérios selecionados. Um conjunto sistemático de experimentos envolvendo dados de referência, assim como dados de aplicações atuais, seguido de um conjunto extensivo de testes de significância, revelam que a estratégia proposta foi capaz de reduzir em até duas ordens de grandeza (reduções de até 96%) a quantidade de regras utilizadas na classificação, produzindo classificadores mais interpretáveis, sem prejudicar a acurácia dos modelos.
Abstract: Building a Machine Learning application, typically requires an expert who defines the objectives and data that have a causal relationship with these objectives, selects the best model that fits the assumptions and data, conducts some experiments and analyses the quality of the solution. In the analysis phase, a fundamental property of the model is its interpretability. In some application domains, such as medical or business, the interpretability is taken as a differential solution. To build an interpretable model, it is recommended the use of few features within the parsimony principle, which states that everything being equal, simpler explanations are preferable. Recently, this principle has shown to be well suited to associative classifiers, where the number of rules composing the classifier can be substantially reduced by using condensed representations such as maximal or closed rules. However, the remaining amount of rules is still large, and the resulting models are hard to interpret. In this work we propose a more aggressive filtering strategy, which decreases the number of rules within the classifier without hurting its accuracy. Our strategy consists in evaluating each rule under different statistical criteria, and filtering only those rules that show a positive balance between all the criteria considered. Specifically, each candidate rule is associated with a point in an n-dimensional scatter-gram, where each coordinate corresponds to a statistical criterion. Points that are not dominated by any other point in the scatter-gram compose the Pareto frontier, and correspond to rules that are optimal in the sense that there is no rule that is better off when all the criteria are taken into account. Finally, rules lying in the Pareto frontier are filtered and compose the classifier. A systematic set of experiments involving benchmark data as well as recent data from actual application scenarios, followed by an extensive set of significance tests, reveal that the proposed strategy decreases the number of rules by up to two orders of magnitude and produces classifiers that are more readable without hurting accuracy.
Subject: Aprendizado do computador
Computação
language: Português
Publisher: Universidade Federal de Minas Gerais
Publisher Initials: UFMG
Rights: Acesso Aberto
URI: http://hdl.handle.net/1843/ESBF-9GNGG3
Issue Date: 12-Dec-2013
Appears in Collections:Dissertações de Mestrado

Files in This Item:
File Description SizeFormat 
itamarsakae.pdf934.13 kBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.