Please use this identifier to cite or link to this item: http://hdl.handle.net/1843/64585
Full metadata record
DC FieldValueLanguage
dc.contributor.advisor1Mário Sérgio Ferreira Alvim Júniorpt_BR
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/1397639761790594pt_BR
dc.contributor.referee1Natasha Fernandespt_BR
dc.contributor.referee2Catuscia Palamidessipt_BR
dc.creatorBruno Demattos Nogueirapt_BR
dc.creator.Latteshttp://lattes.cnpq.br/5606022111711975pt_BR
dc.date.accessioned2024-02-23T21:02:26Z-
dc.date.available2024-02-23T21:02:26Z-
dc.date.issued2023-11-30-
dc.identifier.urihttp://hdl.handle.net/1843/64585-
dc.description.abstractAo desenvolver um sistema de aprendizado de máquina, existem duas preocupações além do desempenho do algoritmo. O primeiro é se o sistema é justo, isto é, se ele trata indivíduos de grupos distintos da mesma maneira, os classificando de forma similar. O segundo é se o sistema é privado, isto é, se ele não revela informações privadas de indivíduos que fazem parte do conjunto de treino quando a saída é exibida a um observador. Inicialmente, essas duas preocupações foram consideradas independentemente, mas recentemente, a conexão entre os dois tem atraído cada vez mais atenção na comunidade de aprendizado de máquina. Nesse trabalho, nós exibiremos uma expansão do arcabouço do fluxo de informação quantitativo para descrever de maneira completa todas as situações que podem ocorrer em termos de privacidade e justiça. Além disso, modelaremos essas duas quantidades como duais. Depois, modelaremos quatro métricas de justiça já existentes usando nosso arcabouço. Por fim, descreveremos experimentos que mostram como nosso modelo se comporta em cenários com dados reais, o testando com diferentes bases de dados e algoritmos.pt_BR
dc.description.resumoWhen developing a machine learning (ML) system, there are two common concerns besides the algorithm's performance. The first one is whether the system is fair, that is, if it treats individuals from different groups similarly, giving them similar classifications. The second is whether the system is private, that is, if it does not reveal private information about individuals on the training set when the output is shown to an observer. Initially, they were considered separately, but recently, the connection between these two concerns has gathered increased attention in the ML community. In this work, we will show an expansion of the quantitative information flow framework to fully describe which situations can happen in terms of fairness and privacy and model them as duals. After that, we model four different existing fairness notions using our framework. Ultimately, we describe experiments showing how our model behaves in real-world scenarios, testing it with different datasets and ML algorithms.pt_BR
dc.languageengpt_BR
dc.publisherUniversidade Federal de Minas Geraispt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentICX - DEPARTAMENTO DE CIÊNCIA DA COMPUTAÇÃOpt_BR
dc.publisher.programPrograma de Pós-Graduação em Ciência da Computaçãopt_BR
dc.publisher.initialsUFMGpt_BR
dc.rightsAcesso Abertopt_BR
dc.rights.urihttp://creativecommons.org/licenses/by/3.0/pt/*
dc.subjectInformation theorypt_BR
dc.subjectMachine learningpt_BR
dc.subjectFairnesspt_BR
dc.subjectPrivacypt_BR
dc.subject.otherComputação – Tesespt_BR
dc.subject.otherAprendizado do computador – Tesespt_BR
dc.subject.otherTeoria da informação - Tesespt_BR
dc.subject.otherDireito à Privacidade - Tesespt_BR
dc.titleOn the relation of privacy and fairness through the lenses of quantitative information flowpt_BR
dc.typeDissertaçãopt_BR
Appears in Collections:Dissertações de Mestrado

Files in This Item:
File Description SizeFormat 
Bruno Nogueira - Thesis.pdf1.59 MBAdobe PDFView/Open


This item is licensed under a Creative Commons License Creative Commons