Please use this identifier to cite or link to this item: http://hdl.handle.net/1843/JCES-AVLN38
Full metadata record
DC FieldValueLanguage
dc.contributor.advisor1Jefersson Alex dos Santospt_BR
dc.contributor.advisor-co1Alexei Manso Correa Machadopt_BR
dc.contributor.referee1Alexei Manso Correa Machadopt_BR
dc.contributor.referee2Fábio Augusto Menocci Cappabiancopt_BR
dc.contributor.referee3William Robson Schwartzpt_BR
dc.creatorTiago Moreira Hübner Cançado Santanapt_BR
dc.date.accessioned2019-08-12T08:10:28Z-
dc.date.available2019-08-12T08:10:28Z-
dc.date.issued2017-09-28pt_BR
dc.identifier.urihttp://hdl.handle.net/1843/JCES-AVLN38-
dc.description.abstractLand-cover maps are one of the main sources of information for studies that support the creation of public policies in areas like urban planning and environmental monitoring. Their automatic creation involves learning to annotate all samples of a Remote Sensing Image (RSI) from just a few annotated by the user. Nevertheless, low-level descriptors like color and shape are not enough to produce a discriminative representation for the samples that represent objects that share similar visual appearance. In order to overcome this limitation, three methods to encode the context of the samples extracted from regions are proposed in this work: the first combines low-level representations from adjacent samples, the second one counts co-occurrences of visual words over a local area and the last one exploits ConvNets to compute deep contextual features. Confirming previous studies, the generated maps were improved by incorporating context in the representations used to feed the classifier.pt_BR
dc.description.resumoDesde o começo da década de 70, quando as primeiras Imagens de Sensoriamento Remoto (ISRs) tornaram-se disponíveis a partir de satélites civis, o mapeamento automático de cobertura terrestre tem sido um tema central de pesquisa no campo devido à sua importância socio-econômica: tais mapas são uma das principais fontes de informação para estudos que embasam a criação de políticas públicas em áreas como o planejamento urbano e o monitoramento ambiental, por exemplo. O processo para gerar os mapas a partir das imagens é frequentemente modelado como um problema de classificação supervisionada, onde algumas amostras de cada classe alvo anotadas pelo usuário na imagem são usadas para alimentar um classificador, que é utilizado para anotar as amostras restantes após o estágio de treinamento. À medida que a resolução espacial dos sensores usados para adquirir as imagens tornou-se mais fina, o paradigma de anotar e classificar pixels que foi dominante desde as primeiras abordagens teve que ser substituído pelo baseado em regiões, uma vez que cada objeto significativo contido em ISRs agora é composto de vários pixels. No entanto, descritores de baixo nível como cor e forma não são suficientes para produzir uma representação discriminativa para as amostras que representam objetos que compartilham aparência visual semelhante. Em tais situações, agregar informações da cena como um todo ou de objetos vizinhos pode ser útil para ajudar a distinguí-los. Explorando essa abordagem que está apenas começando a ser usada para o paradigma baseado em regiões, foram propostos três métodos para codificar o contexto de superpixels neste trabalho: o primeiro método modela cada vizinhança local composta de um superpixel e seus vizinhos como um Grafo de Adjacência de Regiões (GAR) e combina representações de baixo nível extraídas dos vértices e arestas em um único vetor de características que codifica tanto a aparência visual quanto o contexto do superpixel; o segundo codifica o contexto semântico de uma vizinhança local ao redor do superpixel contando a co-ocorrência de palavras visuais dentro dele e de seus vizinhos; e o último método proposto explora ConvNets para calcular características contextuais profundas a partir de estruturas de imagem com forma irregular, como é o caso dos superpixels. Confirmando estudos anteriores que mostraram que codificar contexto seja de pixels ou regiões é uma abordagem promissora, todos os três métodos propostos foram capazes de melhorar os mapas gerados ao incorporar contexto nas representações usadas para alimentar o classificador.pt_BR
dc.languageInglêspt_BR
dc.publisherUniversidade Federal de Minas Geraispt_BR
dc.publisher.initialsUFMGpt_BR
dc.rightsAcesso Abertopt_BR
dc.subjectDescritor Contextualpt_BR
dc.subjectSensoriamento Remotopt_BR
dc.subjectMapas de Cobertura Terrestrept_BR
dc.subjectClassificação Baseada em Regiõespt_BR
dc.subject.otherVisão por computadorpt_BR
dc.subject.otherComputaçãopt_BR
dc.subject.otherSensoriamento Remotopt_BR
dc.subject.otherReconhecimento de padrões informaçãopt_BR
dc.titleEncoding context from superpixels to improve land-cover mapspt_BR
dc.typeDissertação de Mestradopt_BR
Appears in Collections:Dissertações de Mestrado

Files in This Item:
File Description SizeFormat 
tiagomoreirahubnercancadosantana.pdf12.98 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.