Algoritmo de treinamento para rede SLFN com projeção aleatória e margem larga
| dc.creator | Vítor Gabriel Reis Caitité | |
| dc.creator | Raul Fonseca Neto | |
| dc.creator | Frederico Gualberto Ferreira Coelho | |
| dc.creator | Antonio de Padua Braga | |
| dc.date.accessioned | 2025-05-30T14:26:13Z | |
| dc.date.accessioned | 2025-09-08T22:59:26Z | |
| dc.date.available | 2025-05-30T14:26:13Z | |
| dc.date.issued | 2023 | |
| dc.identifier.doi | https://doi.org/10.14210/cotb.v14.p202-208 | |
| dc.identifier.uri | https://hdl.handle.net/1843/82660 | |
| dc.language | por | |
| dc.publisher | Universidade Federal de Minas Gerais | |
| dc.relation.ispartof | XIV Computer on the Beach | |
| dc.rights | Acesso Aberto | |
| dc.subject | Redes neurais (Computação) | |
| dc.subject.other | neural networks, large margin, binary classification, random projection | |
| dc.subject.other | Desde a década de 1990 já existiam redes neurais de camada oculta única que possuíam os pesos da camada escondida definidos aleatoriamente. Esse tipo de treinamento, que define uma projeção aleatória na camada oculta, se tornou popular com as Máquinas de Aprendizado Extremo (Extreme Learning Machine - ELM). | |
| dc.subject.other | As ELMs podem ser formalmente definidas como uma solução onde os pesos da camada oculta são selecionados aleatoriamente e os pesos da camada de saída linear são obtidos diretamente usando o método da pseudo-inversa. Essa abordagem tem a vantagem de produzir boa performance de generalização e ainda ser simples e ter custo computacional menor se comparado com outros métodos de treinamento como o backpropagation. | |
| dc.title | Algoritmo de treinamento para rede SLFN com projeção aleatória e margem larga | |
| dc.title.alternative | Learning Algorithm for an SLFN Network with Random Projection and Large Margin | |
| dc.type | Artigo de evento | |
| local.description.resumo | This work presents a large margin learning algorithm for single hidden layer feedforward networks (SLFNs) with random weights for the hidden neurons, called RP-IMA. This algorithm, applied to binary classification problems, proposes randomly assigned weights to the hidden layer and the use of an incremental margin algorithm to calculate the weights of the output neuron of the SLFN. The results showed that the proposed algorithm is capable to obtain a large separation margin in the feature space and has its performance less sensitive to variations in the network architecture, when compared to Extreme Learning Machines | |
| local.publisher.country | Brasil | |
| local.publisher.department | ENG - DEPARTAMENTO DE ENGENHARIA ELETRÔNICA | |
| local.publisher.initials | UFMG | |
| local.url.externa | https://periodicos.univali.br/index.php/acotb/article/view/19435 |
Arquivos
Licença do pacote
1 - 1 de 1