Algoritmo híbrido de otimização por enxame de partículas para o aprendizado federado de redes neurais artificiais
Carregando...
Data
Autor(es)
Título da Revista
ISSN da Revista
Título de Volume
Editor
Universidade Federal de Minas Gerais
Descrição
Tipo
Dissertação de mestrado
Título alternativo
Primeiro orientador
Membros da banca
Jaime Arturo Ramírez
Marcelo Azevedo Costa
Demostenes Zegarra Rodriguez
Marcelo Azevedo Costa
Demostenes Zegarra Rodriguez
Resumo
Os algoritmos de gerenciamento do treinamento de Aprendizado Federado (FL) comumente desconsideram o equilíbrio entre desempenho e custo de comunicação. Portanto, neste estudo propomos um novo método de treinamento federado denominado FLPSO-SGD que é baseado no algoritmo híbrido de otimização por enxame de partículas-Gradiente Descendente Estocástico (PSO-SGD) visando considerar esses aspectos. Em contraste com as técnicas clássicas de treinamento de FL, o método proposto neste trabalho recebe os erros dos clientes em vez dos parâmetros dos modelos, enquanto o algoritmo PSO-SGD realiza o treinamento no cliente. Os algoritmos foram avaliados em problemas de classificação utilizando as bases de dados da UC Irvine para o PSO-SGD, e a base de dados CIFAR-10, também foi utilizada com PSO-SGD e FLPSO-SGD em diferentes arquiteturas de redes neurais convolucionais. Os resultados destacam o desempenho promissor do algoritmo PSO-SGD. Além disso, a metodologia federada FLPSO-SGD demonstrou melhores desempenhos nos treinamentos de modelos globais em comparação com as técnicas FedAvg e FedPSO. Esses resultados se destacam, sobretudo, nas aplicações com os dados cuja amostras não são independentes e identicamente distribuídos (dados não IID). Os resultados sugerem que FLPSO-SGD é uma alternativa eficaz para treinamentos em FL, especialmente em aplicações com redes de comunicação com largura de banda restrita nos clientes.
Abstract
The algorithms for managing Federated Learning (FL) training commonly overlook the
balance between performance and communication cost. Therefore, in this study, we propose
a new federated training method called FLPSO-SGD, based on the hybrid Particle Swarm
Optimization-Stochastic Gradient Descent (PSO-SGD) algorithm, to address these aspects.
In contrast to classical FL training techniques, the proposed method receives client errors
instead of model parameters, while the PSO-SGD algorithm performs training on the
client side. The algorithms were evaluated on classification problems using UC Irvine
datasets for PSO-SGD, and the CIFAR-10 dataset was also used with both PSO-SGD
and FLPSO-SGD across different convolutional neural network architectures. The results
highlight the promising performance of the PSO-SGD algorithm. Moreover, the federated
methodology FLPSO-SGD demonstrated better performance in training global models
compared to the FedAvg and FedPSO techniques. These results are particularly notable in
applications involving data that are not independent and identically distributed (non-IID
data). The findings suggest that FLPSO-SGD is an effective alternative for FL training,
especially in applications with communication networks that have restricted bandwidth
on the client side.
Assunto
Engenharia elétrica, Aprendizado do computador, Algoritmos, Otimização, Redes neurais (Computação), Redes neurais convolucionais
Palavras-chave
aprendizado de máquina, redes neurais artificiais, redes neurais convolucionais, aprendizado federado, otimização por enxame de partículas