Explain-ML: a human-centered holistic and interactive visual tool for explainable machine learning
| dc.creator | Bárbara Gabrielle Coelho de Oliveira Lopes | |
| dc.date.accessioned | 2025-12-03T17:54:53Z | |
| dc.date.issued | 2020-11-25 | |
| dc.description.abstract | Compreender os motivos pelos quais um modelo de aprendizado de máquina treinado toma algumas decisões automaticamente é fundamental para confiar no modelo e aplicar suas recomendações em aplicativos do mundo real com confiança. Também é fundamental ser capaz de melhorar o modelo se a eficácia (e.g. acurácia) não estiver dentro dos níveis desejados. Neste trabalho, apresentamos o Explain-ML, uma ferramenta interativa que implementa uma abordagem visual para apoiar a interpretação de modelos de ML. O desenvolvimento do Explain-ML seguiu uma estratégia de Aprendizado de Máquina Centrado no Usuário, guiada pelas demandas dos usuários (conhecedores), resultando em uma abordagem holística na qual a interpretabilidade é suportada por um conjunto de visualizações complementares sob várias perspectivas (e.g. global e local). Para avaliar a ferramenta e sua abordagem quanto à interpretação, foi realizada uma avaliação qualitativa com um grupo de usuários-alvo, focada em sua perspectiva em relação à utilidade e usabilidade do Explain-ML na compreensão dos resultados de modelos de ML treinados. A avaliação também explorou a capacidade dos usuários em aplicar o conhecimento obtido com as explicações da ferramenta na adaptação/melhoria dos modelos. Nossos resultados mostram que o Explain-ML fornece um relato amplo da execução do modelo (incluindo histórico), oferecendo aos usuários um espaço de exploração amplo e flexível com autonomia para tomar decisões diferentes e conduzir investigações e análises distintas. Os usuários declararam que a ferramenta foi muito útil e que realmente estariam interessados em utilizá-la em suas atividades diárias. | |
| dc.identifier.uri | https://hdl.handle.net/1843/1049 | |
| dc.language | eng | |
| dc.publisher | Universidade Federal de Minas Gerais | |
| dc.rights | Acesso aberto | |
| dc.subject | Computação – Teses | |
| dc.subject | Interação homem-máquina – Teses | |
| dc.subject.other | Interpretability | |
| dc.subject.other | Machine Learning Models | |
| dc.subject.other | Human-Computer Interaction | |
| dc.subject.other | Visualization | |
| dc.title | Explain-ML: a human-centered holistic and interactive visual tool for explainable machine learning | |
| dc.title.alternative | Explain-ML: uma ferramenta visual holística e interativa centrada no ser humano para aprendizado de máquina explicável | |
| dc.type | Dissertação de mestrado | |
| local.contributor.advisor-co1 | Marcos André Gonçalves | |
| local.contributor.advisor-co1ID | https://orcid.org/0000-0002-2075-3363 | |
| local.contributor.advisor-co1Lattes | http://lattes.cnpq.br/3457219624656691 | |
| local.contributor.advisor1 | Raquel Oliveira Prates | |
| local.contributor.advisor1ID | https://orcid.org/0000-0002-7128-4974 | |
| local.contributor.advisor1Lattes | http://lattes.cnpq.br/2951269593210008 | |
| local.contributor.referee1 | Simone Diniz Junqueira Barbosa | |
| local.contributor.referee1 | Anisio Mendes Lacerda | |
| local.creator.Lattes | https://lattes.cnpq.br/1240160324968813 | |
| local.description.resumo | Understanding the reasons why an automatically trained machine learning model takes some decisions is paramount to trust the model and apply its recommendations in real-world applications with confidence. It is also fundamental to be able to improve the model if the effectiveness (e.g. accuracy) is not at desired levels. In this work, we present Explain-ML, an interactive tool that implements a visual approach to support interpretation of ML models. The development of Explain-ML followed a Human-Centered Machine Learning strategy guided by the target (knowledgeable) users' demands, resulting in a holistic approach in which interpretability is supported by a set of complementary visualizations under several perspectives (e.g., global and local). To evaluate the tool and its approach to interpretation, a qualitative evaluation was performed with a group of target users, focused on their perspective regarding the helpfulness and usefulness of Explain-ML in comprehending the outcomes of the application of trained ML models. The evaluation also explored users' capability in applying the knowledge obtained from the tool's explanations in adapting/improving the current models. Our results show that Explain-ML provides a broad account of the model's execution (including historical), offering users an ample and flexible exploration space with autonomy to make different decisions and conduct distinct investigations and analyses. Users stated the tool was very useful and that they would indeed be interested in using it in their daily activities. | |
| local.identifier.orcid | https://orcid.org/0000-0001-6875-9353 | |
| local.publisher.country | Brasil | |
| local.publisher.department | ICEX - INSTITUTO DE CIÊNCIAS EXATAS | |
| local.publisher.initials | UFMG | |
| local.publisher.program | Programa de Pós-Graduação em Ciência da Computação | |
| local.subject.cnpq | CIENCIAS EXATAS E DA TERRA | |
| local.subject.cnpq | CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO |