Explain-ML: a human-centered holistic and interactive visual tool for explainable machine learning
Carregando...
Data
Título da Revista
ISSN da Revista
Título de Volume
Editor
Universidade Federal de Minas Gerais
Descrição
Tipo
Dissertação de mestrado
Título alternativo
Explain-ML: uma ferramenta visual holística e interativa centrada no ser humano para aprendizado de máquina explicável
Primeiro orientador
Membros da banca
Simone Diniz Junqueira Barbosa
Anisio Mendes Lacerda
Anisio Mendes Lacerda
Resumo
Understanding the reasons why an automatically trained machine learning model takes some decisions is paramount to trust the model and apply its recommendations in real-world applications with confidence. It is also fundamental to be able to improve the model if the effectiveness (e.g. accuracy) is not at desired levels. In this work, we present Explain-ML, an interactive tool that implements a visual approach to support interpretation of ML models. The development of Explain-ML followed a Human-Centered Machine Learning strategy guided by the target (knowledgeable) users' demands, resulting in a holistic approach in which interpretability is supported by a set of complementary visualizations under several perspectives (e.g., global and local). To evaluate the tool and its approach to interpretation, a qualitative evaluation was performed with a group of target users, focused on their perspective regarding the helpfulness and usefulness of Explain-ML in comprehending the outcomes of the application of trained ML models. The evaluation also explored users' capability in applying the knowledge obtained from the tool's explanations in adapting/improving the current models. Our results show that Explain-ML provides a broad account of the model's execution (including historical), offering users an ample and flexible exploration space with autonomy to make different decisions and conduct distinct investigations and analyses. Users stated the tool was very useful and that they would indeed be interested in using it in their daily activities.
Abstract
Compreender os motivos pelos quais um modelo de aprendizado de máquina treinado toma algumas decisões automaticamente é fundamental para confiar no modelo e aplicar suas recomendações em aplicativos do mundo real com confiança. Também é fundamental ser capaz de melhorar o modelo se a eficácia (e.g. acurácia) não estiver dentro dos níveis desejados. Neste trabalho, apresentamos o Explain-ML, uma ferramenta interativa que implementa uma abordagem visual para apoiar a interpretação de modelos de ML. O desenvolvimento do Explain-ML seguiu uma estratégia de Aprendizado de Máquina Centrado no Usuário, guiada pelas demandas dos usuários (conhecedores), resultando em uma abordagem holística na qual a interpretabilidade é suportada por um conjunto de visualizações complementares sob várias perspectivas (e.g. global e local). Para avaliar a ferramenta e sua abordagem quanto à interpretação, foi realizada uma avaliação qualitativa com um grupo de usuários-alvo, focada em sua perspectiva em relação à utilidade e usabilidade do Explain-ML na compreensão dos resultados de modelos de ML treinados. A avaliação também explorou a capacidade dos usuários em aplicar o conhecimento obtido com as explicações da ferramenta na adaptação/melhoria dos modelos. Nossos resultados mostram que o Explain-ML fornece um relato amplo da execução do modelo (incluindo histórico), oferecendo aos usuários um espaço de exploração amplo e flexível com autonomia para tomar decisões diferentes e conduzir investigações e análises distintas. Os usuários declararam que a ferramenta foi muito útil e que realmente estariam interessados em utilizá-la em suas atividades diárias.
Assunto
Computação – Teses, Interação homem-máquina – Teses
Palavras-chave
Interpretability, Machine Learning Models, Human-Computer Interaction, Visualization