Explaining classification outcomes through geometric generation of counterfactual examples with data structures and graphs

Carregando...
Imagem de Miniatura

Título da Revista

ISSN da Revista

Título de Volume

Editor

Universidade Federal de Minas Gerais

Descrição

Tipo

Tese de doutorado

Título alternativo

Explicando os resultados de classificação através da geração de exemplos contrafactuais guiada por estruturas geométrica de dados e grafos

Primeiro orientador

Membros da banca

Frederico Gualberto Ferreira Coelho
Luis Enrique Zárate Gálvez
Cristiane Neri Nobre
Luiz Carlos Bambirra Torres

Resumo

The present thesis investigates the application of geometric structures, particularly the Gabriel Graph, for the generation of counterfactual examples to enhance explainability in Artificial Intelligence (AI) models. The research explores the potential of these structures to improve model interpretability by generating counterfactual samples that are realistic, diverse, and feasible, enabling better insights into decision boundaries and influencing features. The methodology involves the use of geometric data structures and statistical metrics to guide counterfactual generation, employing real-world datasets for validation. Results indicate the efficacy of the proposed methods in producing high-quality counterfactuals and emphasize the computational efficiency and applicability of geometric approaches in handling complex datasets. The findings highlight the role of geometric techniques in advancing Explainable AI (XAI), particularly in critical domains like healthcare, finance, and industrial systems, while identifying future research directions, such as developing efficient algorithms for high-dimensional data.

Abstract

A característica que mais diferencia os seres humanos de quaisquer outras entidades conhecidas reside no arsenal cognitivo proporcionado pela mente que é instanciada em seu complexo cérebro. Esse conjunto de ferramentas cognitivas dos seres humanos compreende o que se denomina de inteligência. Um aspecto fundamental da inteligência humana é a capacidade de conduzir investigações e descobertas científicas, trazendo inúmeros benefícios à humanidade, desde tratamentos médicos até tecnologias de exploração espacial. Para facilitar, disseminar e amplificar o uso das capacidades cognitivas humanas, pesquisadores têm buscado automatizar esses processos por meio da Inteligência Artificial (IA). Esses esforços, amparados pela tecnologia atual, estão revolucionando a pesquisa científica, tornando-a mais rápida e descentralizada, sobretudo com o uso das IA Generativas (Gen-AI). No entanto, para que modelos de IA sejam amplamente adotados a processos de descoberta científica e em aplicações de missão-crítica, é imprescindível torná-la compreensível aos seres humanos, o que é o foco da Inteligência Artificial Explicável (XAI). Diversas técnicas foram desenvolvidas para prover interpretabilidade a modelos de IA, como a geração de regras lógicas simbólicas, interpretações por meio de gráficos e imagens, descrição da importância das variáveis e análises por meio do uso de amostras (exemplos), destacando-se a Análise Contrafactual. A análise contrafactual beneficia modelos de IA em aspectos como análise do comportamento do modelo, verificação de erros, avaliação de equidade e vieses, incremento de dados, extração de regras simbólicas, estudos de otimização, além de fornecer subsídios para ajustar dados de amostras de modo que se obtenha uma saída (predição) distinta do modelo. Este trabalho investiga o uso de estruturas geométricas, especialmente o grafo de Gabriel, para balizar a realização de análises contrafactuais. O grafo de Gabriel permite representar a similaridade entre as amostras de um conjunto de dados e é adotado para direcionar a criação de exemplos contrafactuais sob diferentes restrições e comportamentos das dimensões espaciais. A ideia central é selecionar estrategicamente pontos reais de referência baseando-se na estrutura geométrica do grafo associada às métricas estatísticas das amostras. Uma vez selecionada a amostra de referência, pode-se escolher diferentes estratégias de criação das novas instâncias contrafactuais. A avaliação da abordagem com conjuntos de dados reais evidenciou a eficácia do uso de estruturas de dados baseadas no grafo de Gabriel na geração de exemplos contrafactuais e ressaltou o potencial de estruturas geométricas em iniciativas de explicabilidade. Contudo, a área ainda demanda esforços adicionais, especialmente no desenvolvimento de algoritmos para lidar com dados complexos e de elevada dimensionalidade.

Assunto

Engenharia elétrica, Geometria, Aprendizado do computador, Geometria computacional, Simulação por computador, Grafo (Sistema de computador)

Palavras-chave

Explainable artificial intelligence (XAI), Artificial intelligence (AI), Gabriel graphs, Computational geometry, Counterfactual analysis, AI models, Model interpretation, Similarity measures, Optimization, Geometric structures

Citação

Endereço externo

Avaliação

Revisão

Suplementado Por

Referenciado Por

Licença Creative Commons

Exceto quando indicado de outra forma, a licença deste item é descrita como Acesso Aberto