Please use this identifier to cite or link to this item: http://hdl.handle.net/1843/79957
Type: Dissertação
Title: Algoritmo híbrido de otimização por enxame de partículas para o aprendizado federado de redes neurais artificiais
Authors: Eliezer Timóteo da Silva Sanhá
First Advisor: Frederico Gadelha Guimarães
First Referee: Jaime Arturo Ramírez
Second Referee: Marcelo Azevedo Costa
Third Referee: Demostenes Zegarra Rodriguez
Abstract: Os algoritmos de gerenciamento do treinamento de Aprendizado Federado (FL) comumente desconsideram o equilíbrio entre desempenho e custo de comunicação. Portanto, neste estudo propomos um novo método de treinamento federado denominado FLPSO-SGD que é baseado no algoritmo híbrido de otimização por enxame de partículas-Gradiente Descendente Estocástico (PSO-SGD) visando considerar esses aspectos. Em contraste com as técnicas clássicas de treinamento de FL, o método proposto neste trabalho recebe os erros dos clientes em vez dos parâmetros dos modelos, enquanto o algoritmo PSO-SGD realiza o treinamento no cliente. Os algoritmos foram avaliados em problemas de classificação utilizando as bases de dados da UC Irvine para o PSO-SGD, e a base de dados CIFAR-10, também foi utilizada com PSO-SGD e FLPSO-SGD em diferentes arquiteturas de redes neurais convolucionais. Os resultados destacam o desempenho promissor do algoritmo PSO-SGD. Além disso, a metodologia federada FLPSO-SGD demonstrou melhores desempenhos nos treinamentos de modelos globais em comparação com as técnicas FedAvg e FedPSO. Esses resultados se destacam, sobretudo, nas aplicações com os dados cuja amostras não são independentes e identicamente distribuídos (dados não IID). Os resultados sugerem que FLPSO-SGD é uma alternativa eficaz para treinamentos em FL, especialmente em aplicações com redes de comunicação com largura de banda restrita nos clientes.
Abstract: The algorithms for managing Federated Learning (FL) training commonly overlook the balance between performance and communication cost. Therefore, in this study, we propose a new federated training method called FLPSO-SGD, based on the hybrid Particle Swarm Optimization-Stochastic Gradient Descent (PSO-SGD) algorithm, to address these aspects. In contrast to classical FL training techniques, the proposed method receives client errors instead of model parameters, while the PSO-SGD algorithm performs training on the client side. The algorithms were evaluated on classification problems using UC Irvine datasets for PSO-SGD, and the CIFAR-10 dataset was also used with both PSO-SGD and FLPSO-SGD across different convolutional neural network architectures. The results highlight the promising performance of the PSO-SGD algorithm. Moreover, the federated methodology FLPSO-SGD demonstrated better performance in training global models compared to the FedAvg and FedPSO techniques. These results are particularly notable in applications involving data that are not independent and identically distributed (non-IID data). The findings suggest that FLPSO-SGD is an effective alternative for FL training, especially in applications with communication networks that have restricted bandwidth on the client side.
Subject: Engenharia elétrica
Aprendizado do computador
Algoritmos
Otimização
Redes neurais (Computação)
Redes neurais convolucionais
language: por
metadata.dc.publisher.country: Brasil
Publisher: Universidade Federal de Minas Gerais
Publisher Initials: UFMG
metadata.dc.publisher.department: ENG - DEPARTAMENTO DE ENGENHARIA ELÉTRICA
metadata.dc.publisher.program: Programa de Pós-Graduação em Engenharia Elétrica
Rights: Acesso Aberto
URI: http://hdl.handle.net/1843/79957
Issue Date: 10-Dec-2024
Appears in Collections:Dissertações de Mestrado

Files in This Item:
File Description SizeFormat 
Dissertação_PPGEE_UFMG_Eliezer__VFinal (pdf_a).pdfDissertação normalizada e em formato PDF/A4.41 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.