Aprendizado por reforço para ajuste dinâmico de dificuldade em jogos de luta

dc.creatorTiago Negrisoli de Oliveira
dc.date.accessioned2025-08-11T20:33:55Z
dc.date.accessioned2025-09-09T01:20:58Z
dc.date.available2025-08-11T20:33:55Z
dc.date.issued2025-04-04
dc.description.abstractDynamic Difficulty Adjustment (DDA) is a technique that automatically adjusts game parameters, such as items, maps, or opponent behavior, to provide players with challenging and engaging experiences. The goal is to maintain balance and ensure an optimal level of entertainment. This work proposes a reinforcement learning agent for a fighting game to create an opponent whose skill level matches the player's relative ability. To achieve this, two distinct parameters are controlled: Balance and Competitiveness. Balance refers to the difficulty perceived by the player throughout the interaction with the system. Competitiveness is related to the outcome of the task. To address both metrics, a reward function was designed to guide the agent toward having a skill level comparable to the player, thus keeping the match balanced. Additionally, a penalty applied during training was introduced to limit the agent's win rate to the desired level, resulting in an opponent that is neither too weak nor too strong. Furthermore, methods to create robust behavior capable of generalizing against unseen players during training were investigated. Regularization techniques were explored to improve the agent's performance and adaptability. Results indicate that regularization has positive effects on generalization; however, it is insufficient to produce behavior capable of balancing against a diverse set of players. Consequently, a training scheme using self-play was proposed to further enhance the method's generalization capacity without requiring human data or pre-programmed behaviors.
dc.description.sponsorshipCNPq - Conselho Nacional de Desenvolvimento Científico e Tecnológico
dc.identifier.urihttps://hdl.handle.net/1843/84321
dc.languagepor
dc.publisherUniversidade Federal de Minas Gerais
dc.rightsAcesso Aberto
dc.subjectComputação - Teses
dc.subjectJogos eletrônicos - Teses
dc.subject.otherAprendizado por Reforço
dc.subject.otherAjuste de Dificuldade Dinâmico
dc.subject.otherTreinamento Baseado em População
dc.subject.otherGeneralização
dc.titleAprendizado por reforço para ajuste dinâmico de dificuldade em jogos de luta
dc.title.alternativeReinforcement learning for dynamic difficulty adjustment in fighting games
dc.typeDissertação de mestrado
local.contributor.advisor1Luiz Chamowicz
local.contributor.advisor1Latteshttp://lattes.cnpq.br/4499928813481251
local.contributor.referee1Anderson Rocha Tavares
local.contributor.referee1Lucas Nascimento Ferreira
local.creator.Latteshttp://lattes.cnpq.br/6137685428735731
local.description.resumoAjuste Dinâmico de Dificuldade (do inglês Dynamic Difficulty Adjustment - DDA) é uma técnica de automaticamente ajustar parâmetros de um jogo, como itens, mapas ou comportamento dos oponentes, com o intuito de prover ao jogador experiências desafiadoras e engajantes. O objetivo é manter o balanceamento e garantir um nível ótimo de entretenimento. Neste trabalho, investigamos o uso de aprendizado por reforço no ajuste dinâmico de dificuldade. Para isso, criamos um agente para um jogo de luta com objetivo de manter sua habilidade relativa equiparável com a do jogador. Durante a partida o agente altera sua proficiência para ser equivalente ao usuário. Para tal são controlados dois parâmetros distintos: Balanceamento e Competitividade. Balanceamento se refere à dificuldade percebida pelo jogador ao longo da interação com o sistema. Competitividade está relacionado ao resultado da tarefa. A fim de lidar com ambas as métricas, foi proposta uma função de recompensa que guia o agente a ter a habilidade relativa similar ao jogador e assim manter a partida balanceada. Além disso, uma penalidade atribuída durante o treino foi introduzida com objetivo de restringir a taxa de vitória do agente para o nível desejado. Dessa forma, gerando um oponente que não é tão fraco nem tão forte. Somado a isso, foram investigados formas de gerar um comportamento robusto capaz de generalização contra jogadores não vistos durante o treinamento. Técnicas de regularização são exploradas para aprimorar a desempenho do agente e sua adaptabilidade. Resultados apontam que a regularização possui efeitos positivos na generalização, entretanto não é suficiente para gerar um comportamento capaz de balancear o jogo para um conjunto com diversos jogadores. Assim, um esquema de treinamento utilizando Selfplay foi proposto para aprimorar ainda mais a capacidade de generalização do método, sem a necessidade de dados humanos ou de comportamentos previamente programados.
local.identifier.orcidhttps://orcid.org/0000-0001-6424-538X
local.publisher.countryBrasil
local.publisher.departmentICX - DEPARTAMENTO DE CIÊNCIA DA COMPUTAÇÃO
local.publisher.initialsUFMG
local.publisher.programPrograma de Pós-Graduação em Ciência da Computação

Arquivos

Pacote original

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
Dissertação-1.pdf
Tamanho:
3.51 MB
Formato:
Adobe Portable Document Format

Licença do pacote

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
license.txt
Tamanho:
2.07 KB
Formato:
Plain Text
Descrição: