Use este identificador para citar o ir al link de este elemento: http://hdl.handle.net/1843/BUOS-8CTH6W
Tipo: Tese de Doutorado
Título: Rede perceptron com camadas paralelas (PLP - Parallel Layer Perceptron)
Autor(es): Douglas Alexandre Gomes Vieira
primer Tutor: Joao Antonio de Vasconcelos
primer Co-tutor: Walmir Matos Caminhas
Resumen: Este trabalho apresenta uma nova abordagem para lidar com o problema de minimização do risco estrutural (structural risk minimization - SRM) aplicado ao problema geral de aprendizado de máquinas. A formulação é baseada no conceito fundamental de que o aprendizado supervisionado é um problema de otimização bi-objetivo, onde dois objetivos conflitantes devem ser minimizados. Estes objetivos estão relacionados ao erro de treinamento, risco empírico (Remp), e à complexidade (capacidade) da máquina de aprendizado (?). Neste trabalho uma formulação geral baseada na norma-Q é utilizada para calcular a complexidade da máquina e esta pode ser utilizada para modelar e comparar a maioria das máquinas de aprendizado encontradas na literatura. A principal vantagem da medida proposta é que esta é uma maneira simples de separar as influências dos parâmetros lineares e não-lineares na medida de complexidade, levando a um melhor entendimento do processo de aprendizagem. Uma nova máquina de aprendizado, a rede perceptron com camadas paralelas (Parallel Layer Perceptron -PLP), foi proposta neste trabalho utilizando um treinamento baseado nas definições e estruturas de aprendizado propostas nesta tese, o Método do Gradiente Mínimo (Minimum Gradient Method-MGM). A combinação da PLP com o MGM (PLP-MGM) é feita utilizando o estimador de mínimos quadrados, sendo esta a principal contribuição deste trabalho.
Abstract: This work presents a novel approach to deal with the structural risk minimization (SRM) applied to a general machine learning problem. The formulation is based on the fundamental concept that supervised learning is a bi-objective optimization problem in which two conflicting objectives should be minimized. The objectives are related to the training error, empirical risk (Remp), and the machine complexity (?). In this work one general Q-norm like method to compute the machine complexity is presented and it can be used to model and compare most of the learning machines found in the literature. The main advantage of the proposed complexity measure is that it is a simple method to split the linear and non-linear complexity influences, leading to a better understanding of the learning process. One novel learning machine, the Parallel Layer Perceptron (PLP) network was proposed here using a training algorithm based on the definitions and structures of learning, the Minimum Gradient Method (MGM). The combination of the PLP with the MGM (PLP-MGM) is held using a reliable least-squares procedure and it is the main contribution of this work.
Asunto: Engenharia elétrica
Idioma: Português
Editor: Universidade Federal de Minas Gerais
Sigla da Institución: UFMG
Tipo de acceso: Acesso Aberto
URI: http://hdl.handle.net/1843/BUOS-8CTH6W
Fecha del documento: 18-dic-2006
Aparece en las colecciones:Teses de Doutorado

archivos asociados a este elemento:
archivo Descripción TamañoFormato 
douglas_alexandre_gomes_vieira.pdf1.71 MBAdobe PDFVisualizar/Abrir


Los elementos en el repositorio están protegidos por copyright, con todos los derechos reservados, salvo cuando es indicado lo contrario.