Explain-ML: a human-centered holistic and interactive visual tool for explainable machine learning

Carregando...
Imagem de Miniatura

Título da Revista

ISSN da Revista

Título de Volume

Editor

Universidade Federal de Minas Gerais

Descrição

Tipo

Dissertação de mestrado

Título alternativo

Explain-ML: uma ferramenta visual holística e interativa centrada no ser humano para aprendizado de máquina explicável

Primeiro orientador

Membros da banca

Simone Diniz Junqueira Barbosa
Anisio Mendes Lacerda

Resumo

Understanding the reasons why an automatically trained machine learning model takes some decisions is paramount to trust the model and apply its recommendations in real-world applications with confidence. It is also fundamental to be able to improve the model if the effectiveness (e.g. accuracy) is not at desired levels. In this work, we present Explain-ML, an interactive tool that implements a visual approach to support interpretation of ML models. The development of Explain-ML followed a Human-Centered Machine Learning strategy guided by the target (knowledgeable) users' demands, resulting in a holistic approach in which interpretability is supported by a set of complementary visualizations under several perspectives (e.g., global and local). To evaluate the tool and its approach to interpretation, a qualitative evaluation was performed with a group of target users, focused on their perspective regarding the helpfulness and usefulness of Explain-ML in comprehending the outcomes of the application of trained ML models. The evaluation also explored users' capability in applying the knowledge obtained from the tool's explanations in adapting/improving the current models. Our results show that Explain-ML provides a broad account of the model's execution (including historical), offering users an ample and flexible exploration space with autonomy to make different decisions and conduct distinct investigations and analyses. Users stated the tool was very useful and that they would indeed be interested in using it in their daily activities.

Abstract

Compreender os motivos pelos quais um modelo de aprendizado de máquina treinado toma algumas decisões automaticamente é fundamental para confiar no modelo e aplicar suas recomendações em aplicativos do mundo real com confiança. Também é fundamental ser capaz de melhorar o modelo se a eficácia (e.g. acurácia) não estiver dentro dos níveis desejados. Neste trabalho, apresentamos o Explain-ML, uma ferramenta interativa que implementa uma abordagem visual para apoiar a interpretação de modelos de ML. O desenvolvimento do Explain-ML seguiu uma estratégia de Aprendizado de Máquina Centrado no Usuário, guiada pelas demandas dos usuários (conhecedores), resultando em uma abordagem holística na qual a interpretabilidade é suportada por um conjunto de visualizações complementares sob várias perspectivas (e.g. global e local). Para avaliar a ferramenta e sua abordagem quanto à interpretação, foi realizada uma avaliação qualitativa com um grupo de usuários-alvo, focada em sua perspectiva em relação à utilidade e usabilidade do Explain-ML na compreensão dos resultados de modelos de ML treinados. A avaliação também explorou a capacidade dos usuários em aplicar o conhecimento obtido com as explicações da ferramenta na adaptação/melhoria dos modelos. Nossos resultados mostram que o Explain-ML fornece um relato amplo da execução do modelo (incluindo histórico), oferecendo aos usuários um espaço de exploração amplo e flexível com autonomia para tomar decisões diferentes e conduzir investigações e análises distintas. Os usuários declararam que a ferramenta foi muito útil e que realmente estariam interessados em utilizá-la em suas atividades diárias.

Assunto

Computação – Teses, Interação homem-máquina – Teses

Palavras-chave

Interpretability, Machine Learning Models, Human-Computer Interaction, Visualization

Citação

Endereço externo

Avaliação

Revisão

Suplementado Por

Referenciado Por