Please use this identifier to cite or link to this item: http://hdl.handle.net/1843/39773
Full metadata record
DC FieldValueLanguage
dc.contributor.advisor1Antônio de Pádua Bragapt_BR
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/1130012055294645pt_BR
dc.contributor.referee1Cristiano Leite de Castropt_BR
dc.contributor.referee2Frederico Gadelha Guimarãespt_BR
dc.contributor.referee3Alexei Manso Correa Machadopt_BR
dc.contributor.referee4Raul Fonseca Netopt_BR
dc.creatorEduardo da Silva Ribeiropt_BR
dc.creator.Latteshttp://lattes.cnpq.br/5036975831625237pt_BR
dc.date.accessioned2022-03-03T15:34:26Z-
dc.date.available2022-03-03T15:34:26Z-
dc.date.issued2021-12-17-
dc.identifier.urihttp://hdl.handle.net/1843/39773-
dc.description.abstractConvolutional Neural Networks (CNNs) have been on the forefront of neural network research in recent years. Their breakthrough performance in fields such as image classification has gathered efforts in the development of new CNN-based architectures, but recently a search for new loss functions for CNNs has emerged. Softmax loss remains the most popular loss function due mainly to its efficiency in class separation, but the function is unsatisfactory in terms of intra-class compactness. In this thesis, a new loss function based on distance matrices (LDMAT) is presented, which performs a pairwise analysis of a set of features and operates directly on the features extracted by convolutional filters, thus allowing its use in arbitrary classifiers. A regularization method by inserting a disturbance in the label distance matrix is also presented, with performance similar to dropout. The proposed approach allows the combination of trained models with the LDMAT loss function with different levels of regularization, which improves the generalization of the final model. In order to validate the proposed loss function, experiments were performed to demonstrate its efficiency in training CNNs during classification tasks. In the FMNIST, EMNIST, CIFAR10, CIFAR100 and SVHN datasets, the LDMAT loss function outperforms other approaches that use similar architectures, and in the MNIST dataset, the accuracy were close to results of other loss functions proposed in the literature.pt_BR
dc.description.resumoAs Redes Neurais Convolucionais (CNNs) têm estado na vanguarda em pesquisas de redes neurais nos últimos anos, seu desempenho inovador em áreas como classificação de imagens reuniu esforços para o desenvolvimento de novas arquiteturas, porém recentemente surgiu uma busca por novas funções custo para CNNs. A função de custo de entropia cruzada (softmax loss) vem sendo amplamente utilizada devido a sua eficiência na separação de classes, entretanto existe uma deficiência em projetar uma margem adequada de separação das classes e compacidade intraclasse das características. Embora alguns estudos tenham abordado esse problema, a maioria das soluções apresentam refinamentos da função de custo de entropia cruzada ou realizam a combinação da mesma com outros componentes para melhorar a generalização do modelo. Nesta tese apresenta-se uma função de custo nova baseada em matrizes de distâncias (LDMAT) que faz análise pareada de um conjunto de características e opera diretamente nas características extraídas pelos filtros convolucionais, permitindo assim, seu uso em classificadores arbitrários. É apresentado também um método de regularização pela inserção de uma perturbação na matriz de distâncias de rótulos, tendo desempenho similar ao desligamento de conexões (dropout). A abordagem proposta permite a combinação de modelos treinados com a função de custo LDMAT com diversos níveis de regularização, o que melhora a generalização do modelo final. Para validar a função de custo proposta, experimentos foram realizados para demonstrar a sua eficiência no treinamento de CNNs em tarefas de classificação. Nos conjuntos de dados FMNIST, EMNIST, CIFAR10, CIFAR100 e SVHN a função de custo LDMAT supera outras abordagens que utilizam arquiteturas similares, e na base MNIST os resultados são comparáveis com outras funções de custo propostas na literatura.pt_BR
dc.languageporpt_BR
dc.publisherUniversidade Federal de Minas Geraispt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentENG - DEPARTAMENTO DE ENGENHARIA ELÉTRICApt_BR
dc.publisher.programPrograma de Pós-Graduação em Engenharia Elétricapt_BR
dc.publisher.initialsUFMGpt_BR
dc.rightsAcesso Abertopt_BR
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/pt/*
dc.subjectFunção de custopt_BR
dc.subjectRedes neurais convolucionaispt_BR
dc.subjectMatrizes de distânciaspt_BR
dc.subject.otherEngenharia elétricapt_BR
dc.subject.otherRedes neurais (Computação)pt_BR
dc.subject.otherMatrizes (Matemática)pt_BR
dc.titleLDMAT: função de custo baseada em matrizes de distâncias para o treinamento de redes neurais convolucionaispt_BR
dc.typeTesept_BR
dc.identifier.orcidhttps://orcid.org/0000-0002-7510-3878pt_BR
Appears in Collections:Teses de Doutorado

Files in This Item:
File Description SizeFormat 
teseEduardoDaSilvaRibeiroPDFA.pdf2.64 MBAdobe PDFView/Open


This item is licensed under a Creative Commons License Creative Commons