Rede perceptron com camadas paralelas (PLP - Parallel Layer Perceptron)

dc.creatorDouglas Alexandre Gomes Vieira
dc.date.accessioned2019-08-12T23:15:27Z
dc.date.accessioned2025-09-08T23:15:16Z
dc.date.available2019-08-12T23:15:27Z
dc.date.issued2006-12-18
dc.description.abstractThis work presents a novel approach to deal with the structural risk minimization (SRM) applied to a general machine learning problem. The formulation is based on the fundamental concept that supervised learning is a bi-objective optimization problem in which two conflicting objectives should be minimized. The objectives are related to the training error, empirical risk (Remp), and the machine complexity (?). In this work one general Q-norm like method to compute the machine complexity is presented and it can be used to model and compare most of the learning machines found in the literature. The main advantage of the proposed complexity measure is that it is a simple method to split the linear and non-linear complexity influences, leading to a better understanding of the learning process. One novel learning machine, the Parallel Layer Perceptron (PLP) network was proposed here using a training algorithm based on the definitions and structures of learning, the Minimum Gradient Method (MGM). The combination of the PLP with the MGM (PLP-MGM) is held using a reliable least-squares procedure and it is the main contribution of this work.
dc.identifier.urihttps://hdl.handle.net/1843/BUOS-8CTH6W
dc.languagePortuguês
dc.publisherUniversidade Federal de Minas Gerais
dc.rightsAcesso Aberto
dc.subjectEngenharia elétrica
dc.subject.otherEngenharia Elétrica
dc.titleRede perceptron com camadas paralelas (PLP - Parallel Layer Perceptron)
dc.typeTese de doutorado
local.contributor.advisor-co1Walmir Matos Caminhas
local.contributor.advisor1Joao Antonio de Vasconcelos
local.description.resumoEste trabalho apresenta uma nova abordagem para lidar com o problema de minimização do risco estrutural (structural risk minimization - SRM) aplicado ao problema geral de aprendizado de máquinas. A formulação é baseada no conceito fundamental de que o aprendizado supervisionado é um problema de otimização bi-objetivo, onde dois objetivos conflitantes devem ser minimizados. Estes objetivos estão relacionados ao erro de treinamento, risco empírico (Remp), e à complexidade (capacidade) da máquina de aprendizado (?). Neste trabalho uma formulação geral baseada na norma-Q é utilizada para calcular a complexidade da máquina e esta pode ser utilizada para modelar e comparar a maioria das máquinas de aprendizado encontradas na literatura. A principal vantagem da medida proposta é que esta é uma maneira simples de separar as influências dos parâmetros lineares e não-lineares na medida de complexidade, levando a um melhor entendimento do processo de aprendizagem. Uma nova máquina de aprendizado, a rede perceptron com camadas paralelas (Parallel Layer Perceptron -PLP), foi proposta neste trabalho utilizando um treinamento baseado nas definições e estruturas de aprendizado propostas nesta tese, o Método do Gradiente Mínimo (Minimum Gradient Method-MGM). A combinação da PLP com o MGM (PLP-MGM) é feita utilizando o estimador de mínimos quadrados, sendo esta a principal contribuição deste trabalho.
local.publisher.initialsUFMG

Arquivos

Pacote original

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
douglas_alexandre_gomes_vieira.pdf
Tamanho:
1.67 MB
Formato:
Adobe Portable Document Format