Please use this identifier to cite or link to this item: http://hdl.handle.net/1843/38880
Full metadata record
DC FieldValueLanguage
dc.contributor.advisor1Erickson Rangel do Nascimentopt_BR
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/6900352659470721pt_BR
dc.contributor.advisor-co1Renato José Martinspt_BR
dc.contributor.referee1Diego Roberto Colombo Diaspt_BR
dc.contributor.referee2Marcos de Oliveira Lage Ferreirapt_BR
dc.contributor.referee3Mário Fernando Montenegro Campospt_BR
dc.creatorJoão Pedro Moreira Ferreirapt_BR
dc.creator.Latteshttp://lattes.cnpq.br/0866273910879686pt_BR
dc.date.accessioned2021-12-17T20:19:05Z-
dc.date.available2021-12-17T20:19:05Z-
dc.date.issued2020-10-30-
dc.identifier.urihttp://hdl.handle.net/1843/38880-
dc.description.abstractA síntese de movimento humano utilizando técnicas de aprendizado de máquina tem se tornado cada vez mais promissora para reduzir a necessidade de captura de dados para a produção de animações. Aprender a mover-se de maneira natural a partir de um áudio, e particularmente aprender a dançar, é uma tarefa difícil que humanos frequentemente realizam com pouco esforço. Cada movimento de dança é único, mas ainda assim esses movimentos preservam as principais características do estilo de dança. A maioria das abordagens existentes para o problema de síntese de dança utiliza redes convolucionais clássicas e redes neurais recursivas no processo de aprendizagem. No entanto, elas enfrentam problemas no treinamento e na variabilidade dos resultados devido à geometria não Euclideana da estrutura da variedade do espaco de movimento. Nesta dissertação é proposta uma nova abordagem inspirada em redes convolucionais em grafos para tratar o problema de geração automática de dança a partir de áudio. O método proposto utiliza uma estratégia de treinamento adversário condicionada a uma música para sintetizar movimentos naturais preservando movimentos característicos dos diferentes estilos musicais. O método proposto foi avaliado em um estudo de usuário e com três métricas quantitativas, comumente empregadas para avaliar modelos generativos. Os resultados mostram que a abordagem proposta utilizando redes convolucionais em grafos supera o estado da arte em geração de dança condicionada a música em diferentes experimentos. Além disso, o modelo proposto é mais simples, mais fácil de ser treinado, e capaz de gerar movimentos com estilo mais realista baseado em diferentes métricas qualitativas e quantitativas do que o estado da arte. Vale ressaltar que o método proposto apresentou uma qualidade visual nos movimentos gerados comparável a movimentos reais.pt_BR
dc.description.resumoSynthesizing human motion through learning techniques is becoming an increasingly popular approach to alleviating the requirement of new data capture to produce animations. Learning to move naturally from music, i.e., to dance, is one of the more complex motions humans often perform effortlessly. Each dance movement is unique, yet such movements maintain the core characteristics of the dance style. Most approaches addressing this problem with classical convolutional and recursive neural models undergo training and variability issues due to the non-Euclidean geometry of the motion manifold structure. In this thesis, we design a novel method based on graph convolutional networks to tackle the problem of automatic dance generation from audio information. Our method uses an adversarial learning scheme conditioned on the input music audios to create natural motions preserving the key movements of different music styles. We evaluate our method with three quantitative metrics of generative methods and a user study. The results suggest that the proposed GCN model outperforms the state-of-the-art dance generation method conditioned on music in different experiments. Moreover, our graph-convolutional approach is simpler, easier to be trained, and capable of generating more realistic motion styles regarding qualitative and different quantitative metrics. It also presented a visual movement perceptual quality comparable to real motion data.pt_BR
dc.description.sponsorshipCNPq - Conselho Nacional de Desenvolvimento Científico e Tecnológicopt_BR
dc.description.sponsorshipFAPEMIG - Fundação de Amparo à Pesquisa do Estado de Minas Geraispt_BR
dc.description.sponsorshipCAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superiorpt_BR
dc.languageengpt_BR
dc.publisherUniversidade Federal de Minas Geraispt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentICX - DEPARTAMENTO DE CIÊNCIA DA COMPUTAÇÃOpt_BR
dc.publisher.programPrograma de Pós-Graduação em Ciência da Computaçãopt_BR
dc.publisher.initialsUFMGpt_BR
dc.rightsAcesso Abertopt_BR
dc.subjectHuman motion generationpt_BR
dc.subjectSound and dance processingpt_BR
dc.subjectMulti-modal learningpt_BR
dc.subjectConditional adversarial netspt_BR
dc.subjectGraph convolutional neural networkspt_BR
dc.subject.otherComputação – Tesespt_BR
dc.subject.otherMovimento humano –Tesespt_BR
dc.subject.otherVisão por computador – Tesespt_BR
dc.subject.otherRedes neurais convolucionais – Tesespt_BR
dc.titleSynthesizing realistic human dance motions conditioned by musical data using graph convolutional networkspt_BR
dc.title.alternativeSíntese de performances realísticas de dança condicionada a dados musicais utilizando redes convolucionais em grafospt_BR
dc.typeDissertaçãopt_BR
dc.identifier.orcidhttps://orcid.org/0000-0002-8093-9880pt_BR
Appears in Collections:Dissertações de Mestrado

Files in This Item:
File Description SizeFormat 
joao_master_dissertation.pdf9.42 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.