Please use this identifier to cite or link to this item: http://hdl.handle.net/1843/SLSS-8MAHST
Full metadata record
DC FieldValueLanguage
dc.contributor.advisor1Arnaldo de Albuquerque Araujopt_BR
dc.contributor.advisor-co1Jussara Marques de Almeidapt_BR
dc.contributor.referee1Marcos Andre Goncalvespt_BR
dc.contributor.referee2Ricardo da Silva Torrespt_BR
dc.contributor.referee3Eduardo Alves do Valle Jruniorpt_BR
dc.creatorAna Paula Brandao Lopespt_BR
dc.date.accessioned2019-08-11T22:28:23Z-
dc.date.available2019-08-11T22:28:23Z-
dc.date.issued2011-09-30pt_BR
dc.identifier.urihttp://hdl.handle.net/1843/SLSS-8MAHST-
dc.description.abstractThis thesis addresses the task of recognizing human actions in realistic videos based on their visual content. Such an ability has a wide variety of applications in specic settings, but this work is above all motivated by the idea that efective visual descriptors and models need to be provided in order to make current search engines better able tocope with the large amount of multimedia data being produced every day.An issue which has arisen from preliminary studies is the fact that to manually collect action samples from realistic videos is a time-consuming and error-prone task. This is a serious bottleneck to research related to video understanding, since the large intra-class variations of such videos demand training sets large enough to properlyencompass those variations. In this thesis, we propose an approach for this problem based on Transfer Learning (TL) theory, in which we relax the classical supposition that training and testing data must come from the same distribution. Our experiments with Caltech256 andHollywood2 databases indicated that by using transferred information from only four concepts taken from the auxiliary database we were able to obtain statistically signi cant improvements in classication of most actions in Hollywood2 database, thus providing strong evidence in favor of the presented solution. Such solution encompasses our main thesis, which can be summarized in two main contributions: a) it is feasibleto use TL techniques to detect concepts in realistic video action databases and, b) by using the transferred information, it is possible to enhance action recognition in thosescenarios.pt_BR
dc.description.resumoEsta tese aborda o reconhecimento de ações humanas em vídeos realistas com base no conteúdo visual. Uma ampla revisão da literatura mostrou que abordagens baseadas em histogramas de características visuais (BoVF) têm consistentemente apresentado bons resultados neste tipo de cenário. Portanto, uma implementação BoVF foi produzida e aplicada: a) para um estudo sobre a inclusão de informação dinâmica nos descritores BoVF; e b) para tarefas baseadas em conteúdo em dois cenários realistas distintos: detecção de nudez e classificação de fotografias históricas. Finalmente, foi produzida a hipótese de que o contexto tem papel importante em cenários realistas e que a teoria da Transferência de Aprendizagem pode auxiliar a superar a falta de bases de dados de ações anotadas para conceitos contextuais. Experimentos com bases públicas de ações e imagens mostraram que a solução proposta é de fato capaz de obter melhorias estatisticamente significativas na classificação da maioria das ações.pt_BR
dc.languagePortuguêspt_BR
dc.publisherUniversidade Federal de Minas Geraispt_BR
dc.publisher.initialsUFMGpt_BR
dc.rightsAcesso Abertopt_BR
dc.subjectCompreensão de Vídeospt_BR
dc.subjectHistogramas de Características Visuais Locaispt_BR
dc.subjectContexto em Reconhecimento de Açõespt_BR
dc.subjectTransferência de Aprendizagempt_BR
dc.subjectReconhecimento de Ações Humanaspt_BR
dc.subject.otherComputaçãopt_BR
dc.titleReconhecimento de ações com histogramas de características visuais e contexto adicionado por tranferência de aprendizagempt_BR
dc.typeTese de Doutoradopt_BR
Appears in Collections:Teses de Doutorado

Files in This Item:
File Description SizeFormat 
anapaulabrandaolopes.pdf5.78 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.