Please use this identifier to cite or link to this item: http://hdl.handle.net/1843/64584
Full metadata record
DC FieldValueLanguage
dc.contributor.advisor1Flávio Vinícius Diniz de Figueiredopt_BR
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/9481210393304645pt_BR
dc.contributor.referee1Jussara Marques de Almeida Gonçalvespt_BR
dc.contributor.referee2Fabrício Benevenuto de Souzapt_BR
dc.contributor.referee3Lesandro Ponciano dos Santospt_BR
dc.contributor.referee4Evandro Landulfo Teixeira Paradela Cunhapt_BR
dc.creatorGuilherme Henrique Resende de Andradept_BR
dc.creator.Latteshttps://lattes.cnpq.br/5956492891514059pt_BR
dc.date.accessioned2024-02-23T20:22:58Z-
dc.date.available2024-02-23T20:22:58Z-
dc.date.issued2023-06-23-
dc.identifier.urihttp://hdl.handle.net/1843/64584-
dc.description.abstractA linguagem é um componente dinâmico da nossa cultura que evoluir quando em contato com diferentes tecnologias e partes da sociedade. Com o aumento crescente do acesso a internet, particularmente de grupos historicamente marginalizados, a Web propiciou a difusão e evolução de diferentes dialetos, por exemplo, o Inglês Afro-Americano (AAE). Contudo, a difusão de dialetos também trás barreiras de adoção quando os mesmos são aplicados online. Ainda no nosso estudo de caso acerca do AAE, salientamos que embora o número de frases com termos AAE online tenha aumentado ao longo dos anos, o dialeto também tem encontrado diferentes formas de censura online, sendo que no âmbito desta dissertação, a censura surge no forma de pontuações de modelos de análise de toxicidade e sentimento. É essencial observar que a moderação do AAE por meio de modelos de análise de toxicidade e sentimento não surge deliberadamente. O número cada vez maior de postagens online torna difícil moderar a mídia online. Esse aumento no conteúdo levou as empresas a desenvolver ferramentas automáticas (por exemplo, modelos de análise de toxicidade e sentimento) para ajudar a filtrar conteúdo nocivo (tóxico, racista, agressivo e assim por diante). Nesse sentido, ferramentas de moderação foram criadas para fomentar debates online razoáveis (não tóxicos). No entanto, como discutimos nesta dissertação, essas soluções podem sair pela culatra e, em última análise, perpetuar o tratamento díspar (por exemplo, negligenciando o conteúdo discriminatório ou censurando o discurso da minoria) dos grupos sociais que pretendiam empoderar/impulsionar. Por que isso acontece? O uso de gírias e termos reapropriados (como n*gger) online é visto por tais modelos como conteúdo nocivo. Em sua forma atual, a IA não consegue diferenciar um enunciado tóxico de um não tóxico, dependendo da presença de termos-chave. De acordo com a ferramenta Perspective do Google, um enunciado como ``Todos os negros merecem morrer com respeito. A polícia nos mata.'' é considerado tóxico. Visto que, “Os afro-americanos merecem morrer com respeito. A polícia nos mata.'' não é. Essa diferença de pontuação provavelmente surge porque a ferramenta é incapaz de entender a reapropriação do termo ``n*gger''. Para ser justo, a maioria dos modelos de IA são treinados em conjuntos de dados limitados e é mais provável que o uso de tal termo em dados de treinamento apareça em um enunciado tóxico. Embora essa possa ser uma explicação plausível, a ferramenta (se empregada em um site/fórum) cometerá erros independentemente da explicação. Este trabalho investiga amplamente os vieses em outros modelos de análise de toxicidade (Perspectiva do Google e modelos do Detoxify de código aberto) e de sentimento (Vader, TextBlob e Flair). Nossos experimentos são realizados em dois conjuntos de dados baseados na Web (YouTube e Twitter) e um conjunto de dados baseado em entrevistas. Cada conjunto de dados tem expressões em inglês de afro-americanos e não-afro-americanos. Nossa análise mostra inicialmente como a maioria dos modelos apresenta vieses em relação à AAE na maioria dos conjuntos de dados, e os vieses são mais proeminentes no Twitter e menos proeminentes em entrevistas pessoais. Além disso, explicamos nossos resultados por meio de recursos linguísticos com o auxílio do software Linguistic Inquiry and Word Count (LIWC), Part of Speech (POS) de modelos de processamento de linguagem natural (NLP) e Word Mover's Distance (WMD). Apresentamos resultados consistentes sobre como o uso mais frequente de termos de AAE pode fazer com que o falante seja considerado substancialmente mais tóxico do que os não-falantes de AAE, mesmo quando falam quase sobre o mesmo assunto.pt_BR
dc.description.resumoLanguage is a dynamic aspect of our culture that evolves when in touch with different technologies and parts of society. With the ever-growing access to the Internet, particularly for marginalized social groups, the Web has enabled the diffusion and evolution of different dialects, for example, African American English (AAE). However, this diffusion of dialects also finds barriers in the adoption of the same dialect online. Still in our case study of AAE, we point out that while the number of sentences with AAE terms online has risen over the years, the dialect has also found different forms of online censorship, wherein in the scope of this dissertation, censorship arises in the form of scores from toxicity and sentiment analysis models. It is essential to note that AAE's moderation via toxicity and sentiment analysis models does not arise deliberately. The ever-increasing number of online posts makes it hard to moderate online media. This increase in content led companies to develop automatic tools (e.g., toxicity and sentiment analysis models) to help filter out harmful (toxic, racist, aggressive, and so forth) content. In this sense, moderation tools were created to foster reasonable (non-toxic) online debates. Nevertheless, as we discuss in this dissertation, these solutions may backfire and ultimately perpetuate disparate treatment (e.g., by neglecting discrimination content or censoring the minority's discourse) of the social groups they were intended to empower. Why does this happen? The usage of slang and re-appropriated terms (such as n*gger) online is viewed by such models as harmful content. In its current form, AI cannot differentiate a toxic from a non-toxic utterance depending on the presence of key terms. If you go online to Google's Perspective tool, an utterance such as ``All n*ggers deserve to die respectfully. The police murders us.'' reaches a higher toxicity score than ``African-Americans deserve to die respectfully. The police murders us.''. This difference scores likely arises because the tool is unable to understand the re-appropriation of the term ``n*gger''. To be fair, most AI models are trained on limited datasets and the usage of such a term in training data is more likely to appear in a toxic utterance. While this may be a plausible explanation, the tool (if employed on a website) will make mistakes regardless of the explanation. This work broadly investigates the biases in other toxicity (Google's Perspective and models from the open-source Detoxify) and sentiment (Vader, TextBlob, and Flair) analysis models. Our experiments are performed on two Web-based (YouTube and Twitter) datasets and an interview-based dataset. Every dataset has English utterances from both African-Americans and Non-African Americans. Our analysis initially shows how most models present biases towards AAE in most datasets, and biases are more prominent on Twitter and less prominent in in-person interviews. Also, we explain our results via linguistic features with the aid of the Linguistic Inquiry and Word Count (LIWC) software, Part-of-Speech (POS) tagging from Natural Language Processing (NLP) models, and the Word Movers Distance (WMD). We present consistent results on how a heavy usage of African-American English terms may cause the speaker to be considered substantially more toxic than Non-African American English speakers, even when speaking about nearly the same subject.pt_BR
dc.languageengpt_BR
dc.publisherUniversidade Federal de Minas Geraispt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentICX - DEPARTAMENTO DE CIÊNCIA DA COMPUTAÇÃOpt_BR
dc.publisher.programPrograma de Pós-Graduação em Ciência da Computaçãopt_BR
dc.publisher.initialsUFMGpt_BR
dc.rightsAcesso Abertopt_BR
dc.subjectSocial Computingpt_BR
dc.subjectBiaspt_BR
dc.subjectToxicitypt_BR
dc.subjectSentiment Analysispt_BR
dc.subjectMachine Learningpt_BR
dc.subject.otherComputação – Tesespt_BR
dc.subject.otherComputação Social – Tesespt_BR
dc.subject.otherAnálise de Sentimentos – Tesespt_BR
dc.subject.otherAprendizado de máquina – Tesespt_BR
dc.titleOn the bias of toxicity and sentiment analysis methods on the African American Englishpt_BR
dc.title.alternativeSobre o viés da toxicidade e dos métodos de análise de sentimento no inglês afro-americanopt_BR
dc.typeDissertaçãopt_BR
Appears in Collections:Dissertações de Mestrado

Files in This Item:
File Description SizeFormat 
On the bias of toxicity and sentiment analysis methods on the African American English.pdf2.26 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.