Please use this identifier to cite or link to this item: http://hdl.handle.net/1843/58134
Type: Tese
Title: Explaining regression models predictions
Other Titles: Explicando as previsões de modelos de regressão
Authors: Renato Miranda Filho
First Advisor: Gisele Lobo Pappa
First Referee: Renato Vimieiro
Second Referee: Wagner Meira Júnior
Third Referee: Fabrício Olivetti de França
metadata.dc.contributor.referee4: Frederico Gadelha Guimarães
metadata.dc.contributor.referee5: Ricardo Cerri
Abstract: The growing interest in machine learning applications has raised a discussion in the artificial intelligence community about model transparency. In the center of this discussion is the question of model explanation and interpretability. Although some methods are systematically pointed out as interpretable by humans, e.g., genetic programming (GP) and Decision Trees (DT), we know that the more complex the model becomes, the less interpretable it is. This thesis focuses on explainability of regression model. The proposed approaches do not explain the process followed by a model to reach a decision. Instead, they justify the predictions the model makes. Four model-agnostic methods were proposed to help justifying predictions: two features-based methods, called Local Approximation Explanation (ELA) and Dynamic Explanation by Local Approximation (DELA), a prototype-based method, called Multiobjective Prototype-basEd Explanation for Regression (M-PEER) and a multilevel hybrid method called Hybrid Multilevel Explanation (HuMiE). ELA is a simple explanation method that finds the nearest neighbors of the instance we want to explain and performs a linear regression using this subset of instances. The coefficients of this linear regression are then used to generate a local explanation to the model. Results show that the errors of ELA are similar to those of the regression performed with all instances. Furthermore, we propose the use of simple visualizations based on stacked area plots to show explanations of the ELA method. Thus, we observed that the results obtained can give many insights to the users about the most relevant features to the predictions. DELA is a method that improves ELA, leaving it with a more dynamic and adaptable internal structure to the characteristics of the dataset worked on. To do so, DELA normalizes the input datasets, chooses the most appropriate distance metric in each context when comparing the instances, dynamically defines the number of neighbors that will be selected for the local explanation according to the local density and calculates the importance of features based on the location of the test instance. In this way, DELA proved to be less affected by datasets with high variances in the features, in addition to returning semantically correct interpretations, which does not always occur in competing explanatory methods. The third proposed method, M-PEER, uses prototypes to provide global and local explanations for regression problems. This method takes into account the input features as well as the output of the model. We define prototypes as exemplary cases in the problem domain. M-PEER is based on a multi-objective evolutionary algorithm that optimizes both the error of the explainable model and two other semanticall-based measures of interpretability. The results show significant gains of the M-PEER over other strategies, with an average improvement of 12% in a proposed metric called Global Fidelity and Stability (GFS) and 17% in Root Mean Squared Error (RMSE) when compared to ProtoDash, a state-of-the-art method in prototype-based explanations. Finally, the method called HuMiE is capable of creating multilevel hybrid explanations for regression problems. By hybrid, we mean that the explanation provided encompasses as many elements of an example-based explanation as it does of features-based explanations. By multilevel HuMiE presents in a tree format the model's global explanations, local explanations for specific test instances and also intermediate explanations, portraying semantically similar subgroups. Experiments with real-world datasets quantitatively showed that the prototypes chosen by HuMiE outperformed all competitors (M-PEER and ProtoDash) on the fidelity metric. HuMiE was also better than M-PEER with a single level regarding stability and GFS metrics. Qualitatively HuMiE is able to diversify in the choice of prototypes according to the characteristics of the presented dataset, both in terms of model output and features. Furthermore, HuMiE was able to find subgroups of similar instances, providing an intermediate interpretation between local and global scales.
Abstract: O crescente interesse em aplicações de aprendizado de máquina levantou uma discussão na comunidade de inteligência artificial sobre a transparência do modelo. No centro desta discussão estão questões sobre a explicação e a interpretabilidade do modelo. Embora alguns métodos sejam sistematicamente apontados como interpretáveis por humanos, por exemplo, Programação Genética (PG) e Árvores de Decisão (AD), sabemos que quanto mais complexo o modelo se torna, menos interpretável ele é. Esta tese enfoca na explicabilidade dos modelos de regressão. As abordagens propostas não explicam o processo seguido por um modelo para se chegar a uma decisão. Em vez disso, elas justificam as previsões que o modelo faz. Quatro métodos agnósticos de modelo foram propostos para ajudar a justificar as previsões: dois métodos baseados em atributos, denominados Explicação por Aproximação Local (ELA) e Explicação Dinâmica por Aproximação Local (DELA), um método baseado em protótipos, denominado Explicação Multiobjetivo Baseada em Protótipos para Regressão (M-PEER) e um método híbrido multinível denominado Explicação Multinível Híbrida (HuMiE). ELA é um método de explicação simples que encontra os vizinhos mais próximos da instância que queremos explicar e realiza uma regressão linear usando este subconjunto de instâncias. Os coeficientes dessa regressão linear são então usados para gerar uma explicação local para o modelo. Os resultados mostram que os erros obtidos pelo método ELA são semelhantes aos da regressão realizada com todos as instâncias. Além disso, propomos o uso de visualizações simples baseadas em gráficos de áreas empilhadas para mostrar as explicações do método ELA. Assim, observamos que os resultados obtidos resultam em informações adicionais aos usuários sobre os atributos mais relevantes para as previsões. DELA é um método que aprimora ELA deixando-o com uma estrutura interna mais dinâmica e adaptável às características do conjunto de dados trabalhado. Para tanto, DELA realiza a normalização dos conjuntos de dados de entrada, escolhe a métrica de distância mais adequada em cada contexto ao comparar as instâncias, define dinamicamente o número de vizinhos que serão selecionados para a explicação local de acordo com a densidade local e calcula a importância dos recursos com base na localização da instância de teste. Desta forma, DELA demonstrou ser menos afetado por conjuntos de dados com altas variâncias nos atributos, além de retornar interpretações semanticamente corretas, o que nem sempre ocorre nos métodos explicativos concorrentes. O terceiro método proposto, M-PEER, utiliza protótipos para fornecer explicações globais e locais para problemas de regressão. Este método leva em consideração os recursos de entrada e também a saída do modelo. Definimos protótipos como casos exemplares no domínio do problema. O M-PEER é um método baseado em um algoritmo evolutivo multiobjetivo que minimiza o erro do modelo explicável e também outras duas medidas semanticamente baseadas no contexto de interpretabilidade. Os resultados mostram ganhos significativos do M-PEER sobre outras estratégias, com uma melhoria média de 12% em uma métrica proposta denominada Fidelidade e Estabilidade Global (GFS) e 17% na Raiz do Erro Quadrático Médio (RMSE) quando comparado com ProtoDash, um método considerado estado-da-arte em explicações baseadas em protótipos.Por fim, o método denominado HuMiE é capaz de criar explicações híbridas multinível para problemas de regressão. Por híbrido entendemos que a explicação fornecida engloba tantos elementos de uma explicação baseada em exemplos quanto de explicações baseadas em atributos. Por multinível HuMiE apresenta em formato de árvore as explicações globais do modelo, explicações locais para instâncias de teste específicas e também explicações intermediárias, retratando subgrupos semanticamente semelhantes. Experimentos com conjuntos de dados do mundo real mostraram quantitativamente que os protótipos escolhidos por HuMiE foram melhores que todos os concorrentes (M-PEER e ProtoDash) em relação à métrica de fidelidade. HuMiE também foi melhor que M-PEER com um único nível em relação às métricas de estabilidade e GFS. Qualitativamente HuMiE é capaz de diversificar na escolha de protótipos de acordo com as características do conjunto de dados apresentado, tanto em termos de saída do modelo quanto dos atributos. Além disso, HuMiE foi capaz de encontrar subgrupos de instâncias semelhantes, proporcionando uma interpretação intermediária entre as escalas local e global.
Subject: Computação – Teses
Aprendizado de máquina – Teses
Análise de regressão – Modelos computacionais – Teses
language: eng
metadata.dc.publisher.country: Brasil
Publisher: Universidade Federal de Minas Gerais
Publisher Initials: UFMG
metadata.dc.publisher.department: ICX - DEPARTAMENTO DE CIÊNCIA DA COMPUTAÇÃO
metadata.dc.publisher.program: Programa de Pós-Graduação em Ciência da Computação
Rights: Acesso Aberto
metadata.dc.rights.uri: http://creativecommons.org/licenses/by-nc-nd/3.0/pt/
URI: http://hdl.handle.net/1843/58134
Issue Date: 24-Apr-2023
Appears in Collections:Teses de Doutorado

Files in This Item:
File Description SizeFormat 
Tese_UFMG___Renato_Miranda - 2023-08-11T145223.582.pdf5.18 MBAdobe PDFView/Open


This item is licensed under a Creative Commons License Creative Commons