Encoding context from superpixels to improve land-cover maps

dc.creatorTiago Moreira Hübner Cançado Santana
dc.date.accessioned2019-08-12T08:10:28Z
dc.date.accessioned2025-09-09T00:54:13Z
dc.date.available2019-08-12T08:10:28Z
dc.date.issued2017-09-28
dc.description.abstractLand-cover maps are one of the main sources of information for studies that support the creation of public policies in areas like urban planning and environmental monitoring. Their automatic creation involves learning to annotate all samples of a Remote Sensing Image (RSI) from just a few annotated by the user. Nevertheless, low-level descriptors like color and shape are not enough to produce a discriminative representation for the samples that represent objects that share similar visual appearance. In order to overcome this limitation, three methods to encode the context of the samples extracted from regions are proposed in this work: the first combines low-level representations from adjacent samples, the second one counts co-occurrences of visual words over a local area and the last one exploits ConvNets to compute deep contextual features. Confirming previous studies, the generated maps were improved by incorporating context in the representations used to feed the classifier.
dc.identifier.urihttps://hdl.handle.net/1843/JCES-AVLN38
dc.languageInglês
dc.publisherUniversidade Federal de Minas Gerais
dc.rightsAcesso Aberto
dc.subjectVisão por computador
dc.subjectComputação
dc.subjectSensoriamento Remoto
dc.subjectReconhecimento de padrões informação
dc.subject.otherDescritor Contextual
dc.subject.otherSensoriamento Remoto
dc.subject.otherMapas de Cobertura Terrestre
dc.subject.otherClassificação Baseada em Regiões
dc.titleEncoding context from superpixels to improve land-cover maps
dc.typeDissertação de mestrado
local.contributor.advisor-co1Alexei Manso Correa Machado
local.contributor.advisor1Jefersson Alex dos Santos
local.contributor.referee1Alexei Manso Correa Machado
local.contributor.referee1Fábio Augusto Menocci Cappabianco
local.contributor.referee1William Robson Schwartz
local.description.resumoDesde o começo da década de 70, quando as primeiras Imagens de Sensoriamento Remoto (ISRs) tornaram-se disponíveis a partir de satélites civis, o mapeamento automático de cobertura terrestre tem sido um tema central de pesquisa no campo devido à sua importância socio-econômica: tais mapas são uma das principais fontes de informação para estudos que embasam a criação de políticas públicas em áreas como o planejamento urbano e o monitoramento ambiental, por exemplo. O processo para gerar os mapas a partir das imagens é frequentemente modelado como um problema de classificação supervisionada, onde algumas amostras de cada classe alvo anotadas pelo usuário na imagem são usadas para alimentar um classificador, que é utilizado para anotar as amostras restantes após o estágio de treinamento. À medida que a resolução espacial dos sensores usados para adquirir as imagens tornou-se mais fina, o paradigma de anotar e classificar pixels que foi dominante desde as primeiras abordagens teve que ser substituído pelo baseado em regiões, uma vez que cada objeto significativo contido em ISRs agora é composto de vários pixels. No entanto, descritores de baixo nível como cor e forma não são suficientes para produzir uma representação discriminativa para as amostras que representam objetos que compartilham aparência visual semelhante. Em tais situações, agregar informações da cena como um todo ou de objetos vizinhos pode ser útil para ajudar a distinguí-los. Explorando essa abordagem que está apenas começando a ser usada para o paradigma baseado em regiões, foram propostos três métodos para codificar o contexto de superpixels neste trabalho: o primeiro método modela cada vizinhança local composta de um superpixel e seus vizinhos como um Grafo de Adjacência de Regiões (GAR) e combina representações de baixo nível extraídas dos vértices e arestas em um único vetor de características que codifica tanto a aparência visual quanto o contexto do superpixel; o segundo codifica o contexto semântico de uma vizinhança local ao redor do superpixel contando a co-ocorrência de palavras visuais dentro dele e de seus vizinhos; e o último método proposto explora ConvNets para calcular características contextuais profundas a partir de estruturas de imagem com forma irregular, como é o caso dos superpixels. Confirmando estudos anteriores que mostraram que codificar contexto seja de pixels ou regiões é uma abordagem promissora, todos os três métodos propostos foram capazes de melhorar os mapas gerados ao incorporar contexto nas representações usadas para alimentar o classificador.
local.publisher.initialsUFMG

Arquivos

Pacote original

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
tiagomoreirahubnercancadosantana.pdf
Tamanho:
12.68 MB
Formato:
Adobe Portable Document Format