Please use this identifier to cite or link to this item: http://hdl.handle.net/1843/34632
Full metadata record
DC FieldValueLanguage
dc.contributor.advisor1Adriano César Machado Pereirapt_BR
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/6813736989856243pt_BR
dc.contributor.referee1Anisio Mendes Lacerdapt_BR
dc.contributor.referee2Daniel Hasan Dalippt_BR
dc.contributor.referee3Paulo Andre Lima de Castropt_BR
dc.creatorRenato Arantes de Oliveirapt_BR
dc.creator.Latteshttp://lattes.cnpq.br/0086443477877353pt_BR
dc.date.accessioned2021-01-05T19:12:46Z-
dc.date.available2021-01-05T19:12:46Z-
dc.date.issued2020-02-28-
dc.identifier.urihttp://hdl.handle.net/1843/34632-
dc.description.abstractSupervised learning models applied in the context of financial asset trading have been proposed and studied for more than two decades. Although many studies have succeeded in demonstrating good results in terms of financial yields and risk, this approach suffers from important limitations such as the need for constant retraining, especially in the presence of large market fluctuations and the difficulty in converting a good model in terms of prediction accuracy into a system that generates high financial yields. These limitations can be overcome with the use of Reinforcement Learning techniques. In this approach, an agent can learn to trade financial assets so as to maximize total gain or minimize risk through its own interaction with the market. In addition, it is also able to keep itself updated with each modification of the environment, eliminating the need for retraining since the agent is always learning. To obtain evidence of these properties, a reinforcement learning agent was proposed and developed using a tabular SARSA algorithm modeling. Afterwards the agent was applied to a set of stocks with varying trend patterns in order to observe how the agent behaves in terms of its strategy in each trend situation. In addition, a financial trading agent based on supervised learning was also developed using an LSTM neural network to compare its performance with that of the proposed reinforcement learning agent. Both agents were applied to a set of 10 stocks from the brazilian stock market Bovespa in the year 2018 and its performance were assessed in terms of financial yield, risk and accuracy. The experimental results provided evidence not only of the limitations of the proposed supervised learning agent, but also of the aforementioned properties of the reinforcement learning agent in adapting to changes in the market in order to produce financial gains with less accumulated financial losses.pt_BR
dc.description.resumoModelos de aprendizado supervisionado aplicados no contexto de negociação de ativos financeiros têm sido propostos e estudados há mais de duas décadas. Embora tenham alcançado bons resultados em termos de rendimento financeiro e risco, essa abordagem padece de limitações importantes, tais como a necessidade de retreinamentos constantes sobretudo nas grandes oscilações do mercado, além da dificuldade em converter um modelo com boa taxa de acertos nas previsões em um sistema de negociação que gere altos rendimentos. Essas limitações podem ser contornadas com a utilização de técnicas de Aprendizado por Reforço. Nessa abordagem, um agente pode aprender a negociar ativos financeiros para maximizar o ganho total ou minimizar o risco através de sua própria interação com o mercado. Além disso, também é capaz de manter-se atualizado a cada modificação do ambiente dispensando a necessidade de retreinamento uma vez que o agente está sempre em aprendizado. Para obter evidências dessas propriedades, desenvolveu-se um agente de aprendizado por reforço utilizando uma modelagem tabular com o algoritmo SARSA e aplicou-se esse agente em um conjunto de ações com variados padrões de tendência com o objetivo de observar como esse agente muda sua estratégia de negociação em cada situação de tendência. Além disso, desenvolveu-se um agente de negociação baseado em aprendizado supervisionado utilizando uma rede neural LSTM para comparar o seu desempenho com o do agente de aprendizado por reforço proposto. Aplicou-se ambos os agentes em um conjunto de 10 ações da Bovespa no ano de 2018, comparando métricas de rendimento financeiro, risco e taxas de acertos. Os resultados experimentais apresentaram evidências não só das limitações do agente de aprendizado supervisionado proposto, como também das aludidas propriedades do agente de aprendizado por reforço em se adaptar às mudanças no mercado de modo a produzir ganhos financeiros com menores perdas financeiras acumuladas.pt_BR
dc.languageporpt_BR
dc.publisherUniversidade Federal de Minas Geraispt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentICX - DEPARTAMENTO DE CIÊNCIA DA COMPUTAÇÃOpt_BR
dc.publisher.programPrograma de Pós-Graduação em Ciência da Computaçãopt_BR
dc.publisher.initialsUFMGpt_BR
dc.rightsAcesso Abertopt_BR
dc.subjectInteligência artificialpt_BR
dc.subjectAprendizado por reforçopt_BR
dc.subjectFinançaspt_BR
dc.subjectBolsa de valorespt_BR
dc.subject.otherComputação – Teses.pt_BR
dc.subject.otherInteligência Artificial - Teses .pt_BR
dc.subject.otherAprendizado por reforço. – Teses.pt_BR
dc.titleAgente de aprendizado por reforço tabular para negociação de açõespt_BR
dc.title.alternativeTabular reinforcement learning agent for stock tradingpt_BR
dc.typeDissertaçãopt_BR
dc.identifier.orcidhttps://orcid.org/0000-0001-6540-432Xpt_BR
Appears in Collections:Dissertações de Mestrado

Files in This Item:
File Description SizeFormat 
Renato_Oliveira_Dissertacao_Mestrado3.pdf7.41 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.