Explain-ML: a human-centered holistic and interactive visual tool for explainable machine learning

dc.creatorBárbara Gabrielle Coelho de Oliveira Lopes
dc.date.accessioned2025-12-03T17:54:53Z
dc.date.issued2020-11-25
dc.description.abstractCompreender os motivos pelos quais um modelo de aprendizado de máquina treinado toma algumas decisões automaticamente é fundamental para confiar no modelo e aplicar suas recomendações em aplicativos do mundo real com confiança. Também é fundamental ser capaz de melhorar o modelo se a eficácia (e.g. acurácia) não estiver dentro dos níveis desejados. Neste trabalho, apresentamos o Explain-ML, uma ferramenta interativa que implementa uma abordagem visual para apoiar a interpretação de modelos de ML. O desenvolvimento do Explain-ML seguiu uma estratégia de Aprendizado de Máquina Centrado no Usuário, guiada pelas demandas dos usuários (conhecedores), resultando em uma abordagem holística na qual a interpretabilidade é suportada por um conjunto de visualizações complementares sob várias perspectivas (e.g. global e local). Para avaliar a ferramenta e sua abordagem quanto à interpretação, foi realizada uma avaliação qualitativa com um grupo de usuários-alvo, focada em sua perspectiva em relação à utilidade e usabilidade do Explain-ML na compreensão dos resultados de modelos de ML treinados. A avaliação também explorou a capacidade dos usuários em aplicar o conhecimento obtido com as explicações da ferramenta na adaptação/melhoria dos modelos. Nossos resultados mostram que o Explain-ML fornece um relato amplo da execução do modelo (incluindo histórico), oferecendo aos usuários um espaço de exploração amplo e flexível com autonomia para tomar decisões diferentes e conduzir investigações e análises distintas. Os usuários declararam que a ferramenta foi muito útil e que realmente estariam interessados em utilizá-la em suas atividades diárias.
dc.identifier.urihttps://hdl.handle.net/1843/1049
dc.languageeng
dc.publisherUniversidade Federal de Minas Gerais
dc.rightsAcesso aberto
dc.subjectComputação – Teses
dc.subjectInteração homem-máquina – Teses
dc.subject.otherInterpretability
dc.subject.otherMachine Learning Models
dc.subject.otherHuman-Computer Interaction
dc.subject.otherVisualization
dc.titleExplain-ML: a human-centered holistic and interactive visual tool for explainable machine learning
dc.title.alternativeExplain-ML: uma ferramenta visual holística e interativa centrada no ser humano para aprendizado de máquina explicável
dc.typeDissertação de mestrado
local.contributor.advisor-co1Marcos André Gonçalves
local.contributor.advisor-co1IDhttps://orcid.org/0000-0002-2075-3363
local.contributor.advisor-co1Latteshttp://lattes.cnpq.br/3457219624656691
local.contributor.advisor1Raquel Oliveira Prates
local.contributor.advisor1IDhttps://orcid.org/0000-0002-7128-4974
local.contributor.advisor1Latteshttp://lattes.cnpq.br/2951269593210008
local.contributor.referee1Simone Diniz Junqueira Barbosa
local.contributor.referee1Anisio Mendes Lacerda
local.creator.Latteshttps://lattes.cnpq.br/1240160324968813
local.description.resumoUnderstanding the reasons why an automatically trained machine learning model takes some decisions is paramount to trust the model and apply its recommendations in real-world applications with confidence. It is also fundamental to be able to improve the model if the effectiveness (e.g. accuracy) is not at desired levels. In this work, we present Explain-ML, an interactive tool that implements a visual approach to support interpretation of ML models. The development of Explain-ML followed a Human-Centered Machine Learning strategy guided by the target (knowledgeable) users' demands, resulting in a holistic approach in which interpretability is supported by a set of complementary visualizations under several perspectives (e.g., global and local). To evaluate the tool and its approach to interpretation, a qualitative evaluation was performed with a group of target users, focused on their perspective regarding the helpfulness and usefulness of Explain-ML in comprehending the outcomes of the application of trained ML models. The evaluation also explored users' capability in applying the knowledge obtained from the tool's explanations in adapting/improving the current models. Our results show that Explain-ML provides a broad account of the model's execution (including historical), offering users an ample and flexible exploration space with autonomy to make different decisions and conduct distinct investigations and analyses. Users stated the tool was very useful and that they would indeed be interested in using it in their daily activities.
local.identifier.orcidhttps://orcid.org/0000-0001-6875-9353
local.publisher.countryBrasil
local.publisher.departmentICEX - INSTITUTO DE CIÊNCIAS EXATAS
local.publisher.initialsUFMG
local.publisher.programPrograma de Pós-Graduação em Ciência da Computação
local.subject.cnpqCIENCIAS EXATAS E DA TERRA
local.subject.cnpqCIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO

Arquivos

Pacote original

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
dissertacao_final_barbara_lopes_2016661571 (1).pdf
Tamanho:
3.43 MB
Formato:
Adobe Portable Document Format

Licença do pacote

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
license.txt
Tamanho:
2.07 KB
Formato:
Item-specific license agreed to upon submission
Descrição: