LDMAT: função de custo baseada em matrizes de distâncias para o treinamento de redes neurais convolucionais

dc.creatorEduardo da Silva Ribeiro
dc.date.accessioned2022-03-03T15:34:26Z
dc.date.accessioned2025-09-09T01:00:39Z
dc.date.available2022-03-03T15:34:26Z
dc.date.issued2021-12-17
dc.description.abstractConvolutional Neural Networks (CNNs) have been on the forefront of neural network research in recent years. Their breakthrough performance in fields such as image classification has gathered efforts in the development of new CNN-based architectures, but recently a search for new loss functions for CNNs has emerged. Softmax loss remains the most popular loss function due mainly to its efficiency in class separation, but the function is unsatisfactory in terms of intra-class compactness. In this thesis, a new loss function based on distance matrices (LDMAT) is presented, which performs a pairwise analysis of a set of features and operates directly on the features extracted by convolutional filters, thus allowing its use in arbitrary classifiers. A regularization method by inserting a disturbance in the label distance matrix is also presented, with performance similar to dropout. The proposed approach allows the combination of trained models with the LDMAT loss function with different levels of regularization, which improves the generalization of the final model. In order to validate the proposed loss function, experiments were performed to demonstrate its efficiency in training CNNs during classification tasks. In the FMNIST, EMNIST, CIFAR10, CIFAR100 and SVHN datasets, the LDMAT loss function outperforms other approaches that use similar architectures, and in the MNIST dataset, the accuracy were close to results of other loss functions proposed in the literature.
dc.identifier.urihttps://hdl.handle.net/1843/39773
dc.languagepor
dc.publisherUniversidade Federal de Minas Gerais
dc.rightsAcesso Aberto
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/pt/
dc.subjectEngenharia elétrica
dc.subjectRedes neurais (Computação)
dc.subjectMatrizes (Matemática)
dc.subject.otherFunção de custo
dc.subject.otherRedes neurais convolucionais
dc.subject.otherMatrizes de distâncias
dc.titleLDMAT: função de custo baseada em matrizes de distâncias para o treinamento de redes neurais convolucionais
dc.typeTese de doutorado
local.contributor.advisor1Antônio de Pádua Braga
local.contributor.advisor1Latteshttp://lattes.cnpq.br/1130012055294645
local.contributor.referee1Cristiano Leite de Castro
local.contributor.referee1Frederico Gadelha Guimarães
local.contributor.referee1Alexei Manso Correa Machado
local.contributor.referee1Raul Fonseca Neto
local.creator.Latteshttp://lattes.cnpq.br/5036975831625237
local.description.resumoAs Redes Neurais Convolucionais (CNNs) têm estado na vanguarda em pesquisas de redes neurais nos últimos anos, seu desempenho inovador em áreas como classificação de imagens reuniu esforços para o desenvolvimento de novas arquiteturas, porém recentemente surgiu uma busca por novas funções custo para CNNs. A função de custo de entropia cruzada (softmax loss) vem sendo amplamente utilizada devido a sua eficiência na separação de classes, entretanto existe uma deficiência em projetar uma margem adequada de separação das classes e compacidade intraclasse das características. Embora alguns estudos tenham abordado esse problema, a maioria das soluções apresentam refinamentos da função de custo de entropia cruzada ou realizam a combinação da mesma com outros componentes para melhorar a generalização do modelo. Nesta tese apresenta-se uma função de custo nova baseada em matrizes de distâncias (LDMAT) que faz análise pareada de um conjunto de características e opera diretamente nas características extraídas pelos filtros convolucionais, permitindo assim, seu uso em classificadores arbitrários. É apresentado também um método de regularização pela inserção de uma perturbação na matriz de distâncias de rótulos, tendo desempenho similar ao desligamento de conexões (dropout). A abordagem proposta permite a combinação de modelos treinados com a função de custo LDMAT com diversos níveis de regularização, o que melhora a generalização do modelo final. Para validar a função de custo proposta, experimentos foram realizados para demonstrar a sua eficiência no treinamento de CNNs em tarefas de classificação. Nos conjuntos de dados FMNIST, EMNIST, CIFAR10, CIFAR100 e SVHN a função de custo LDMAT supera outras abordagens que utilizam arquiteturas similares, e na base MNIST os resultados são comparáveis com outras funções de custo propostas na literatura.
local.identifier.orcidhttps://orcid.org/0000-0002-7510-3878
local.publisher.countryBrasil
local.publisher.departmentENG - DEPARTAMENTO DE ENGENHARIA ELÉTRICA
local.publisher.initialsUFMG
local.publisher.programPrograma de Pós-Graduação em Engenharia Elétrica

Arquivos

Pacote original

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
teseEduardoDaSilvaRibeiroPDFA.pdf
Tamanho:
2.57 MB
Formato:
Adobe Portable Document Format

Licença do pacote

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
license.txt
Tamanho:
2.07 KB
Formato:
Plain Text
Descrição: