Discriminações algorítmicas nas relações trabalhistas: enfrentamento de vieses sexistas em intermediações voltadas à contratação de vagas de emprego

Descrição

Tipo

Dissertação de mestrado

Título alternativo

Primeiro orientador

Membros da banca

Raquel Betty de Castro Pimenta
Lívia Mendes Moreira Miraglia

Resumo

A pesquisa proposta se dedicou à análise dos impactos da Inteligência Artificial nas relações laborais, com ênfase em práticas algorítmicas discriminatórias. Os avanços tecnológicos revelaram o desenvolvimento de aprendizado de máquina, de modelos algorítmicos, com velocidade de coleta e de processamento de dados jamais presenciados. A celeridade dessas inovações não foi acompanhada por uma adequada tutela legislativa acerca de implicações tecnológicas no cotidiano. Modelos algorítmicos podem apresentar vieses, tendências, que refletem as estruturas sociais preconceituosas e desiguais nas quais se formataram. Ao mesmo tempo, existem modelos algorítmicos que, por sua própria natureza, são não supervisionados, suscitando desafios mais rigorosos quanto às consequências de discriminações eventualmente deles advindas. A autodeterminação in-formacional foi reconhecida como direito autônomo. A proteção de dados pessoais foi alavancada pela urgên-cia de salvaguardar a privacidade, a intimidade, dos indivíduos, em contexto de presença crescente de máqui-nas coletando informações inclusive sensíveis a seu respeito. O crescimento da utilização de redes sociais ampliou a oferta de dados gratuitamente disponibilizados sem que as pessoas sequer problematizem a entrega de tais informações. Implicações práticas correlatas ao impacto de fake news, deepfake, em eleições, em incita-ções a crimes, trouxeram urgência ao debate de regulações de mecanismos de IA. Demonstrou-se que a neces-sidade de monitoramento severo, consistente, de ferramentas tecnológicas não se subsumiria a um debate abs-trato. A fixação de diretrizes éticas, de respeito aos direitos humanos, com supervisão, fiscalização, governan-ça, de modelos algorítmicos, é relevante não apenas para o tema de práticas algorítmicas discriminatórias, mas para diversas outras aplicações de IA. Analisou-se de que modo princípios, tais como explicabilidade, transpa-rência, inteligibilidade, auditabilidade, devem ser compreendidos para adequadas utilizações de ferramentas de IA. Foram tecidas considerações sobre as consequências da automação, de inovações tecnológicas, no respeito ao trabalho digno e decente. Observou-se de que modo as mulheres são as principais afetadas por discrimina-ções laborais, inclusive algorítmicas. Esclareceu-se a metáfora do “teto-de-vidro” para reforçar a relevância de representatividade feminina em cargos de poder. Ponderou-se em que consistiria a interseccionalidade, bem como as razões pelas quais as mulheres negras são as mais afetadas pelo patriarcado, machismo, misoginia, que perseveram historicamente no seio social. Foram observadas correlações entre os Objetivos de Desenvol-vimento Sustentável da Agenda 2030 da ONU e práticas algorítmicas discriminatórias. Narrou-se exemplos concretos de discriminações algorítmicas laborais trazidas na literatura estrangeira e em reportagens jornalísti-cas nacionais. O enfrentamento da opacidade de black box machines perpassa pelo acesso aos fundamentos que levaram ao design de modelos algorítmicos da forma como estão postos. Não há necessidade de desvelar a sequência matemática de códigos-fonte em si. É possível preservar o segredo de indústria alegado pelas plata-formas quando negam o acesso a tais dados. Porém, é elementar que, pelo menos, órgãos jurisdicionais e de controle possam fiscalizar os dados de entrada, de saída, de modelos algorítmicos utilizados por intermediárias tecnológicas para recrutar trabalhadores. A supervisão dos fundamentos que levaram à formatação de modelos algorítmicos para captar, manter ou dispensar trabalhadores, por parte, no mínimo, de órgãos públicos, é viável e elementar para a garantia da lisura desses procedimentos.

Abstract

The proposed research was dedicated to analyzing the impacts of Artificial Intelligence on labor relations, with an emphasis on discriminatory algorithmic practices. Technological advances have revealed the development of machine learning and algorithmic models, with unprecedented data collection and processing speeds. The speed of these innovations was not accompanied by adequate legislative protection regarding technological implications in everyday life. Algorithmic models can present biases, tendencies, which reflect the prejudiced and unequal social structures in which they were formed. At the same time, there are algorithmic models that, by their very nature, are unsupervised, raising more rigorous challenges regarding the consequences of discrimination that may arise from them. Informational self-determination was recognized as an autonomous right. The protection of personal data was driven by the urgency of safeguarding the privacy and intimacy of individuals, in a context of the increasing presence of machines collecting even sensitive information about them. The growth in the use of social networks has expanded the supply of freely available data without people even questioning the provision of such information. Practical implications related to the impact of fake news, deepfake, on elections, and incitements to crimes, brought urgency to the debate on regulating AI mechanisms. It was demonstrated that the need for severe, consistent monitoring of technological tools would not be subsumed into an abstract debate. The establishment of ethical guidelines, respect for human rights, with supervision, inspection, governance, of algorithmic models, is relevant not only to the topic of discriminatory algorithmic practices, but to several other AI applications. It was analyzed how principles, such as explainability, transparency, intelligibility, auditability, must be understood for adequate use of AI tools. Considerations were made about the consequences of automation, technological innovations, in respect for dignified and decent work. It was observed how women are mainly affected by labor discrimination, including algorithmic discrimination. The “glass ceiling” metaphor was clarified to reinforce the relevance of female representation in positions of power. It was considered what intersectionality would consist of, as well as the reasons why black women are the most affected by patriarchy, machism, misogyny, which historically persevere within society. Correlations were observed between the Sustainable Development Goals of the UN 2030 Agenda and discriminatory algorithmic practices. Concrete examples of algorithmic labor discrimination found in foreign literature and national journalistic reports were narrated. Confronting the opacity of black box machines involves access to the fundamentals that led to the design of algorithmic models as they are. There is no need to uncover the mathematical sequence of source codes themselves. It is possible to preserve the industry secret claimed by platforms when they deny access to such data. However, it is essential that, at least, jurisdictional and control bodies can monitor the input and output data of algorithmic models used by technological intermediaries to recruit workers. Supervision of the fundamentals that led to the formatting of algorithmic models to recruit,maintain or dismiss workers, by at least public bodies, is viable and elementary to guarantee the smoothness of these procedures.

Assunto

Direito humanos, Inteligência artificial, Relações trabalhistas, Discriminação no emprego, Algoritmos

Palavras-chave

Discriminação, Algoritmos, Inteligência artificial, Direitos humanos, Trabalhadores

Citação

Endereço externo

Avaliação

Revisão

Suplementado Por

Referenciado Por