An investigation on deep reinforcement learning algorithms for resource management and workload scheduling

dc.creatorAbner Sousa Nascimento
dc.date.accessioned2025-08-05T17:08:46Z
dc.date.accessioned2025-09-08T22:58:49Z
dc.date.available2025-08-05T17:08:46Z
dc.date.issued2022-12-21
dc.description.abstractEfficiency is a key operational requirement for most computer systems, given that the resources necessary to such processes are usually subjected to constraints in availability. It's desirable that computing clusters operate in order to complete as many tasks as possible while making the most of hardware assets, for example, CPU and memory. In this context, the temporal ordering of the jobs submitted to a cluster can interfere in its capacity to function at maximum use. It is, thus, important that such tasks are scheduled properly to ensure efficiency. Several algorithms and techniques, both principled and learning-based, can be applied to this problem, but the goal-oriented nature of reinforcement learning powered by the use of deep neural networks can help deal with the particularities and complexities of it robustly. In this work, we investigate the usage of deep reinforcement learning techniques for job allocation in computing clusters, applying hyperparameter search and comparing the performance and training stability of the learning-based solutions with previously designed algorithms for a target metric. We found that it is possible to obtain equal or better performance under the right environmental conditions within the appropriate parametric domain. Results also indicate that such agents can achieve better generalization if trained in a graduated difficulty set-up, with increasingly challenging scenarios, instead of a random initialization approach that starts from a difficult configuration.
dc.description.sponsorshipFAPESP - Fundação de Amparo à Pesquisa do Estado de São Paulo
dc.identifier.urihttps://hdl.handle.net/1843/84048
dc.languageeng
dc.publisherUniversidade Federal de Minas Gerais
dc.rightsAcesso Aberto
dc.rights.urihttp://creativecommons.org/licenses/by-nd/3.0/pt/
dc.subjectComputação – Teses
dc.subjectAprendizado do computador – Teses
dc.subjectAprendizado profundo – Teses
dc.subjectComputação de alto desempenho – Teses
dc.subjectAprendizado por reforço – Teses
dc.subject.otherreinforcement learning
dc.subject.otherdeep learning
dc.subject.otherhigh power computer clusters
dc.subject.otherworkload management
dc.subject.otherresource management
dc.titleAn investigation on deep reinforcement learning algorithms for resource management and workload scheduling
dc.typeDissertação de mestrado
local.contributor.advisor1Luis Chaimowicz
local.contributor.advisor1Latteshttp://lattes.cnpq.br/4499928813481251
local.contributor.referee1Anderson Rocha Tavares
local.contributor.referee1George Luiz Medeiros Teodoro
local.contributor.referee1Renato Luiz de Freitas Cunha
local.creator.Latteshttp://lattes.cnpq.br/6534494703690547
local.description.resumoA eficiência é um requisito operacional fundamental para a maioria dos sistemas computacionais, visto que os recursos necessários para tais processos geralmente estão sujeitos a restrições de disponibilidade. É desejável que os clusters de computação operem para concluir o maior número possível de tarefas enquanto aproveitam ao máximo os componentes de hardware, por exemplo, CPU e memória.  Nesse contexto, a ordenação temporal das tarefas submetidas a um cluster pode interferir na sua capacidade de funcionar em uso máximo. É, portanto, importante que tais tarefas sejam programadas adequadamente para garantir a eficiência.  Vários algoritmos e técnicas, tanto orientadas por regras fundamentais quanto baseados em aprendizado de máquina, podem ser aplicados a esse problema, mas a natureza centrada em objetivos do aprendizado por reforço amplificada pelo uso de redes neurais profundas pode ajudar a lidar com as particularidades e complexidades dele de forma robusta.  Neste trabalho, investiga-se o uso de técnicas de aprendizado por reforço e redes neurais profundas para alocação de tarefas em clusters computacionais, aplicando busca pelo conjunto ideal de hiperparâmetros e comparando o desempenho e a estabilidade de treinamento das soluções baseadas em aprendizado com algoritmos previamente projetados, com referência a uma métrica alvo. Os resultados apontam que é possível obter desempenho igual ou melhor, desde que sob as condições ambientais corretas e dentro do domínio paramétrico apropriado. Observa-se também que tais agentes podem alcançar melhor generalização se treinados em uma configuração de dificuldade graduada, com cenários cada vez mais desafiadores, em vez de uma abordagem de inicialização aleatória que parte de uma configuração difícil.
local.publisher.countryBrasil
local.publisher.departmentICX - DEPARTAMENTO DE CIÊNCIA DA COMPUTAÇÃO
local.publisher.initialsUFMG
local.publisher.programPrograma de Pós-Graduação em Ciência da Computação

Arquivos

Pacote original

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
Dissertação-1.pdf
Tamanho:
2.49 MB
Formato:
Adobe Portable Document Format

Licença do pacote

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
license.txt
Tamanho:
2.07 KB
Formato:
Plain Text
Descrição: