Please use this identifier to cite or link to this item: http://hdl.handle.net/1843/64584
Type: Dissertação
Title: On the bias of toxicity and sentiment analysis methods on the African American English
Other Titles: Sobre o viés da toxicidade e dos métodos de análise de sentimento no inglês afro-americano
Authors: Guilherme Henrique Resende de Andrade
First Advisor: Flávio Vinícius Diniz de Figueiredo
First Referee: Jussara Marques de Almeida Gonçalves
Second Referee: Fabrício Benevenuto de Souza
Third Referee: Lesandro Ponciano dos Santos
metadata.dc.contributor.referee4: Evandro Landulfo Teixeira Paradela Cunha
Abstract: Language is a dynamic aspect of our culture that evolves when in touch with different technologies and parts of society. With the ever-growing access to the Internet, particularly for marginalized social groups, the Web has enabled the diffusion and evolution of different dialects, for example, African American English (AAE). However, this diffusion of dialects also finds barriers in the adoption of the same dialect online. Still in our case study of AAE, we point out that while the number of sentences with AAE terms online has risen over the years, the dialect has also found different forms of online censorship, wherein in the scope of this dissertation, censorship arises in the form of scores from toxicity and sentiment analysis models. It is essential to note that AAE's moderation via toxicity and sentiment analysis models does not arise deliberately. The ever-increasing number of online posts makes it hard to moderate online media. This increase in content led companies to develop automatic tools (e.g., toxicity and sentiment analysis models) to help filter out harmful (toxic, racist, aggressive, and so forth) content. In this sense, moderation tools were created to foster reasonable (non-toxic) online debates. Nevertheless, as we discuss in this dissertation, these solutions may backfire and ultimately perpetuate disparate treatment (e.g., by neglecting discrimination content or censoring the minority's discourse) of the social groups they were intended to empower. Why does this happen? The usage of slang and re-appropriated terms (such as n*gger) online is viewed by such models as harmful content. In its current form, AI cannot differentiate a toxic from a non-toxic utterance depending on the presence of key terms. If you go online to Google's Perspective tool, an utterance such as ``All n*ggers deserve to die respectfully. The police murders us.'' reaches a higher toxicity score than ``African-Americans deserve to die respectfully. The police murders us.''. This difference scores likely arises because the tool is unable to understand the re-appropriation of the term ``n*gger''. To be fair, most AI models are trained on limited datasets and the usage of such a term in training data is more likely to appear in a toxic utterance. While this may be a plausible explanation, the tool (if employed on a website) will make mistakes regardless of the explanation. This work broadly investigates the biases in other toxicity (Google's Perspective and models from the open-source Detoxify) and sentiment (Vader, TextBlob, and Flair) analysis models. Our experiments are performed on two Web-based (YouTube and Twitter) datasets and an interview-based dataset. Every dataset has English utterances from both African-Americans and Non-African Americans. Our analysis initially shows how most models present biases towards AAE in most datasets, and biases are more prominent on Twitter and less prominent in in-person interviews. Also, we explain our results via linguistic features with the aid of the Linguistic Inquiry and Word Count (LIWC) software, Part-of-Speech (POS) tagging from Natural Language Processing (NLP) models, and the Word Movers Distance (WMD). We present consistent results on how a heavy usage of African-American English terms may cause the speaker to be considered substantially more toxic than Non-African American English speakers, even when speaking about nearly the same subject.
Abstract: A linguagem é um componente dinâmico da nossa cultura que evoluir quando em contato com diferentes tecnologias e partes da sociedade. Com o aumento crescente do acesso a internet, particularmente de grupos historicamente marginalizados, a Web propiciou a difusão e evolução de diferentes dialetos, por exemplo, o Inglês Afro-Americano (AAE). Contudo, a difusão de dialetos também trás barreiras de adoção quando os mesmos são aplicados online. Ainda no nosso estudo de caso acerca do AAE, salientamos que embora o número de frases com termos AAE online tenha aumentado ao longo dos anos, o dialeto também tem encontrado diferentes formas de censura online, sendo que no âmbito desta dissertação, a censura surge no forma de pontuações de modelos de análise de toxicidade e sentimento. É essencial observar que a moderação do AAE por meio de modelos de análise de toxicidade e sentimento não surge deliberadamente. O número cada vez maior de postagens online torna difícil moderar a mídia online. Esse aumento no conteúdo levou as empresas a desenvolver ferramentas automáticas (por exemplo, modelos de análise de toxicidade e sentimento) para ajudar a filtrar conteúdo nocivo (tóxico, racista, agressivo e assim por diante). Nesse sentido, ferramentas de moderação foram criadas para fomentar debates online razoáveis (não tóxicos). No entanto, como discutimos nesta dissertação, essas soluções podem sair pela culatra e, em última análise, perpetuar o tratamento díspar (por exemplo, negligenciando o conteúdo discriminatório ou censurando o discurso da minoria) dos grupos sociais que pretendiam empoderar/impulsionar. Por que isso acontece? O uso de gírias e termos reapropriados (como n*gger) online é visto por tais modelos como conteúdo nocivo. Em sua forma atual, a IA não consegue diferenciar um enunciado tóxico de um não tóxico, dependendo da presença de termos-chave. De acordo com a ferramenta Perspective do Google, um enunciado como ``Todos os negros merecem morrer com respeito. A polícia nos mata.'' é considerado tóxico. Visto que, “Os afro-americanos merecem morrer com respeito. A polícia nos mata.'' não é. Essa diferença de pontuação provavelmente surge porque a ferramenta é incapaz de entender a reapropriação do termo ``n*gger''. Para ser justo, a maioria dos modelos de IA são treinados em conjuntos de dados limitados e é mais provável que o uso de tal termo em dados de treinamento apareça em um enunciado tóxico. Embora essa possa ser uma explicação plausível, a ferramenta (se empregada em um site/fórum) cometerá erros independentemente da explicação. Este trabalho investiga amplamente os vieses em outros modelos de análise de toxicidade (Perspectiva do Google e modelos do Detoxify de código aberto) e de sentimento (Vader, TextBlob e Flair). Nossos experimentos são realizados em dois conjuntos de dados baseados na Web (YouTube e Twitter) e um conjunto de dados baseado em entrevistas. Cada conjunto de dados tem expressões em inglês de afro-americanos e não-afro-americanos. Nossa análise mostra inicialmente como a maioria dos modelos apresenta vieses em relação à AAE na maioria dos conjuntos de dados, e os vieses são mais proeminentes no Twitter e menos proeminentes em entrevistas pessoais. Além disso, explicamos nossos resultados por meio de recursos linguísticos com o auxílio do software Linguistic Inquiry and Word Count (LIWC), Part of Speech (POS) de modelos de processamento de linguagem natural (NLP) e Word Mover's Distance (WMD). Apresentamos resultados consistentes sobre como o uso mais frequente de termos de AAE pode fazer com que o falante seja considerado substancialmente mais tóxico do que os não-falantes de AAE, mesmo quando falam quase sobre o mesmo assunto.
Subject: Computação – Teses
Computação Social – Teses
Análise de Sentimentos – Teses
Aprendizado de máquina – Teses
language: eng
metadata.dc.publisher.country: Brasil
Publisher: Universidade Federal de Minas Gerais
Publisher Initials: UFMG
metadata.dc.publisher.department: ICX - DEPARTAMENTO DE CIÊNCIA DA COMPUTAÇÃO
metadata.dc.publisher.program: Programa de Pós-Graduação em Ciência da Computação
Rights: Acesso Aberto
URI: http://hdl.handle.net/1843/64584
Issue Date: 23-Jun-2023
Appears in Collections:Dissertações de Mestrado

Files in This Item:
File Description SizeFormat 
On the bias of toxicity and sentiment analysis methods on the African American English.pdf2.26 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.