Uncertainty quantification in Adversarial Federated Learning

Carregando...
Imagem de Miniatura

Título da Revista

ISSN da Revista

Título de Volume

Editor

Universidade Federal de Minas Gerais

Descrição

Tipo

Tese de doutorado

Título alternativo

Quantificação da incerteza na aprendizagem federada adversarial

Primeiro orientador

Membros da banca

Antonio Alfredo Ferreira Loureiro
Alejandro César Frery Orgambide
Marcos Oliveira Prates
Amauri Holanda de Souza Junior

Resumo

This thesis investigates novel methodologies in Federated Learning (FL). This paradigm enables multiple devices to collaboratively develop a shared machine learning model while keeping all training data localized, thus enhancing client privacy. FL trains local models on individual devices, which are then aggregated on a central server. Despite its advantages, FL is vulnerable to model poisoning attacks, where malicious nodes inject fake model updates, jeopardizing the integrity of the global model. This thesis, titled ``Uncertainty quantification in Adversarial Federated Learning'', introduces novel approaches to improve the privacy and security of distributed machine learning models against such threats. We explore three distinct methods for quantifying uncertainty in FL models to achieve this goal. The first, Laplace approximation using the Hessian matrix in neural networks, is explicitly applied to detect Distributed Denial of Service (DDoS) attacks within FL settings. This method leverages the second-order derivatives of the loss function to approximate the uncertainty in model predictions, providing a refined understanding of model confidence in the presence of adversarial attacks and enhancing the detection and mitigation of DDoS attacks. The second method introduces an ad-hoc approach using a deep metric learning technique, namely SMELL. This novel method defines a similarity space (S-Space) to represent data more effectively by mapping pairs of elements from the original feature space into this new auxiliary space. The similarity between data pairs is quantified using markers within the S-Space, allowing for intuitive and flexible detection of anomalies and potential threats in FL environments. The third method extends the ad-hoc approach by employing Bayesian neural networks with variational inference. This extension uses Bayesian principles to model uncertainty by treating network weights as distributions rather than point estimations, allowing for a probabilistic interpretation of model outputs and improved resilience against malicious attacks. By integrating these uncertainty quantification methods, the thesis aims to mitigate the risks of model poisoning attacks, thereby enhancing the robustness, reliability, and security of FL applications. Experimental results demonstrate the effectiveness of these approaches in reinforcing the integrity of distributed machine learning models under adversarial conditions.

Abstract

Esta tese investiga novas metodologias em Aprendizado Federado (FL), um paradigma que permite múltiplos dispositivos desenvolverem colaborativamente um modelo de aprendizado de máquina compartilhado, mantendo todos os dados de treinamento locais, assim aprimorando a privacidade dos clientes. O FL opera treinando modelos locais em dispositivos individuais, que são então agregados em um servidor central. Apesar de suas vantagens, o FL é vulnerável a ataques de envenenamento de modelo, onde nós maliciosos injetam atualizações maliciosas de modelo, comprometendo a integridade do modelo global. Esta tese, intitulada “Quantificação de Incerteza em Aprendizado Federado Adversarial”, introduz novas abordagens para melhorar a privacidade e a segurança dos modelos de aprendizado de máquina distribuídos contra tais ameaças. Para alcançar esse objetivo, a pesquisa explora três métodos distintos para quantificar a incerteza em modelos de FL. O primeiro método, aproximação de Laplace usando a matriz Hessiana em redes neurais, é aplicado especificamente na detecção de ataques de Negação de Serviço Distribuído (DDoS) em cenários de FL. Este método aproveita as derivadas de segunda ordem da função de perda para aproximar a incerteza nas previsões do modelo, proporcionando uma compreensão refinada da confiança do modelo na presença de ataques adversariais e aprimorando a detecção e mitigação de ataques DDoS. O segundo método introduz uma abordagem ad-hoc usando uma técnica de aprendizado de métrica profunda, denominada “SMELL”. Este método define um espaço de similaridade (S-Space) para representar dados de forma mais eficaz, mapeando pares de elementos do espaço de features original para este novo espaço auxiliar. A similaridade entre pares de dados é quantificada usando marcadores dentro do S-Space, permitindo uma detecção intuitiva e flexível de anomalias e ameaças potenciais em ambientes de FL. O terceiro método estende a abordagem ad-hoc empregando redes neurais bayesianas com inferência variacional. Esta extensão utiliza princípios bayesianos para modelar a incerteza tratando os pesos da rede como distribuições em vez estimativas pontuais, permitindo uma interpretação probabilística das saídas do modelo e uma resiliência aprimorada contra ataques maliciosos. Integrando esses métodos de quantificação de incerteza, a tese visa mitigar os riscos de ataques de envenenamento de modelo, aprimorando assim a robustez, confiabilidade e segurança das aplicações de FL.

Assunto

Computação – Teses, Aprendizado federado (Aprendizado do computador) – Teses, Redes neurais (Computação) – Teses

Palavras-chave

Federated Learning, Bayesian neural network, Adversarial federated learning; uncertainty quantification, Uncertainty quantification

Citação

Endereço externo

Avaliação

Revisão

Suplementado Por

Referenciado Por