Please use this identifier to cite or link to this item: http://hdl.handle.net/1843/37927
Full metadata record
DC FieldValueLanguage
dc.contributor.advisor1Antônio de Pádua Bragapt_BR
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/1130012055294645pt_BR
dc.contributor.advisor-co1Luiz Carlos Bambirra Torrespt_BR
dc.contributor.referee1Cristiano Leite de Castropt_BR
dc.contributor.referee2Sílvia Grasiella Moreira Almeidapt_BR
dc.creatorMurilo Vale Ferreira Menezespt_BR
dc.creator.Latteshttp://lattes.cnpq.br/7865037461061309pt_BR
dc.date.accessioned2021-09-06T18:57:29Z-
dc.date.available2021-09-06T18:57:29Z-
dc.date.issued2020-10-26-
dc.identifier.urihttp://hdl.handle.net/1843/37927-
dc.description.abstractO desempenho de um modelo de aprendizado de máquina, independentemente da tarefa, depende da qualidade das representações que o fornecemos. Há uma ampla classe de métodos que utilizam propriedades estatísticas de um conjunto de dados para aprender representações, da Análise de Componentes Principais (PCA) a técnicas de aprendizado profundo. Métodos de kernel são uma família poderosa de modelos que têm a habilidade de mapear os dados para um espaço onde tarefas como classificação linear se tornam mais fáceis de serem resolvidas. Estes métodos têm a habilidade de expressar seu processo de aprendizado apenas em termos de funções de kernel, que são medidas de similaridade entre amostras e podem ser interpretadas como produtos internos neste espaço mapeado, não havendo necessidade do mapeamento explícito. Contudo, estas funções de kernel tipicamente têm um conjunto de parâmetros que devem ser ajustados de acordo com cada tarefa e têm grande influência no mapeamento, e, portanto, na tarefa final. Este trabalho propõe duas funções objetivo com as quais podemos aprender estes parâmetros e atingir bons resultados em problemas de classificação. Conduzimos experimentos com kernels Gaussianos, Laplacianos e sigmoidais. Além disso, uma interpretação de redes neurais dentro do arcabouço de kernels é proposta, mostrando que estas redes podem ser treinadas para aprender representações de acordo com as funções propostas. Com base em resultados empíricos e na análise das funções de kernel usadas, discutimos as propriedades das funções propostas e como usá-las na prática.pt_BR
dc.description.resumoThe performance of a machine learning method, regardless of the task it is trying to solve, is dependent on the quality of the representations it receives. Not surprisingly, there is a wide class of methods that aim to leverage statistical properties of a dataset, either with raw or handcrafted features, to build more useful representations, from Principal Component Analysis to recent deep learning techniques. Kernel methods are a very powerful family of models, which have the ability to map the input data into a space where otherwise hard tasks become easier to solve, such as linear classification. These methods have the ability to express their learning process only in terms of kernels, which are similarity functions between samples and can be interpreted as inner products in this mapped space, dismissing the need to explicitly map the data. However, these kernel functions often have a set of parameters that have to be chosen according to each task and have a great influence on the mapping, and, therefore, on the final task. This work proposes two objective functions which can be used to learn these kernel parameters and achieve good classification results. Experiments with Gaussian, Laplacian, and sigmoid kernels are conducted. An interpretation of neural networks inside the kernel framework is also proposed, enabling these networks to be trained to learn representations using the proposed functions. Based on empirical results and the analysis of each kernel function used in the experiments, properties of the proposed functions are discussed, along with how they can successfully be used in practice.pt_BR
dc.description.sponsorshipFAPEMIG - Fundação de Amparo à Pesquisa do Estado de Minas Geraispt_BR
dc.description.sponsorshipCAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superiorpt_BR
dc.languageengpt_BR
dc.publisherUniversidade Federal de Minas Geraispt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentENG - DEPARTAMENTO DE ENGENHARIA ELÉTRICApt_BR
dc.publisher.programPrograma de Pós-Graduação em Engenharia Elétricapt_BR
dc.publisher.initialsUFMGpt_BR
dc.rightsAcesso Abertopt_BR
dc.subjectKernel methodspt_BR
dc.subjectRepresentation learningpt_BR
dc.subjectClassificationpt_BR
dc.subject.otherEngenharia elétricapt_BR
dc.subject.otherClassificaçãopt_BR
dc.subject.otherKernel, Funções dept_BR
dc.titleLearning representations for classification problems in reproducing kernel Hilbert spacespt_BR
dc.title.alternativeAprendendo representações para problemas de classificação em espaços de Hilbert do kernel reprodutivopt_BR
dc.typeDissertaçãopt_BR
dc.identifier.orcidhttps://orcid.org/0000-0002-7675-6432pt_BR
Appears in Collections:Dissertações de Mestrado



Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.