Algoritmo de treinamento para rede SLFN com projeção aleatória e margem larga

dc.creatorVítor Gabriel Reis Caitité
dc.creatorRaul Fonseca Neto
dc.creatorFrederico Gualberto Ferreira Coelho
dc.creatorAntonio de Padua Braga
dc.date.accessioned2025-05-30T14:26:13Z
dc.date.accessioned2025-09-08T22:59:26Z
dc.date.available2025-05-30T14:26:13Z
dc.date.issued2023
dc.identifier.doihttps://doi.org/10.14210/cotb.v14.p202-208
dc.identifier.urihttps://hdl.handle.net/1843/82660
dc.languagepor
dc.publisherUniversidade Federal de Minas Gerais
dc.relation.ispartofXIV Computer on the Beach
dc.rightsAcesso Aberto
dc.subjectRedes neurais (Computação)
dc.subject.otherneural networks, large margin, binary classification, random projection
dc.subject.otherDesde a década de 1990 já existiam redes neurais de camada oculta única que possuíam os pesos da camada escondida definidos aleatoriamente. Esse tipo de treinamento, que define uma projeção aleatória na camada oculta, se tornou popular com as Máquinas de Aprendizado Extremo (Extreme Learning Machine - ELM).
dc.subject.otherAs ELMs podem ser formalmente definidas como uma solução onde os pesos da camada oculta são selecionados aleatoriamente e os pesos da camada de saída linear são obtidos diretamente usando o método da pseudo-inversa. Essa abordagem tem a vantagem de produzir boa performance de generalização e ainda ser simples e ter custo computacional menor se comparado com outros métodos de treinamento como o backpropagation.
dc.titleAlgoritmo de treinamento para rede SLFN com projeção aleatória e margem larga
dc.title.alternativeLearning Algorithm for an SLFN Network with Random Projection and Large Margin
dc.typeArtigo de evento
local.description.resumoThis work presents a large margin learning algorithm for single hidden layer feedforward networks (SLFNs) with random weights for the hidden neurons, called RP-IMA. This algorithm, applied to binary classification problems, proposes randomly assigned weights to the hidden layer and the use of an incremental margin algorithm to calculate the weights of the output neuron of the SLFN. The results showed that the proposed algorithm is capable to obtain a large separation margin in the feature space and has its performance less sensitive to variations in the network architecture, when compared to Extreme Learning Machines
local.publisher.countryBrasil
local.publisher.departmentENG - DEPARTAMENTO DE ENGENHARIA ELETRÔNICA
local.publisher.initialsUFMG
local.url.externahttps://periodicos.univali.br/index.php/acotb/article/view/19435

Arquivos

Licença do pacote

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
License.txt
Tamanho:
1.99 KB
Formato:
Plain Text
Descrição: