Please use this identifier to cite or link to this item: http://hdl.handle.net/1843/SLSC-BCVQQM
Type: Tese de Doutorado
Title: Going Deep into Remote Sensing Spatial Feature Learning
Authors: Keiller Nogueira
First Advisor: Jefersson Alex dos Santos
First Referee: William Robson Schwartz
Second Referee: Pedro Olmo Stancioli Vaz de Melo
Third Referee: Renato Martins Assuncao
metadata.dc.contributor.referee4: Raul Queiroz Feitosa
metadata.dc.contributor.referee5: Hemerson Pistori
Abstract: Informações podem ser extraída da superfície terrestre através de imagens adquiridas por sensores aéreos. Mais que isso, hoje em dia, informações aprimoradas e detalhadas podem ser extraídas de imagens de alta resolução espacial, através de novas e avançadas tecnologias de sensores. Essa informação pode auxiliar tarefas de diferentes aplicações, como urbanização, manejo de culturas e florestas, etc. Embora muito usadas, é complexo minerar as informações sobre essas imagens, já que o primeiro e mais importante passo em direção a tal objetivo é baseado em codificar as características das imagens, uma tarefa desafiadora dadas as propriedades distintas de cada imagem. De fato, independentemente da tarefa, codificar as características espaciais de forma eficiente e robusta é fundamental para gerar bons modelos discriminativos. Mesmo que muitos descritores tenham sido propostos e usados com sucesso para codificar características espaciais de imagens de sensoriamento remoto, a maioria das aplicações exigem técnicas mais específicas. Aprendizado profundo é capaz de aprender, ao mesmo tempo, características e classificadores específicos e ajustando-os em tempo de processamento atendendo às necessidades de cada problema. Tal técnica conseguiu bons resultados, principalmente impulsionados pelo aprendizado de características, que permite ao método extrair características específicas e adaptáveis dependendo dos dados. Neste projeto, abordamos duas principais tarefas, a classificação de cenas e de pixels, usando aprendizado profundo para codificar características espaciais em imagens de sensoriamento remoto. Inicialmente, enfrentamos o problema de classificação de cenas, em que o desempenho final do modelo é dependente da qualidade das características extraídas. Com base em obras recentemente publicadas e após um conjunto de experimentos, a primeira contribuição foi uma arquitetura de rede convolucional, treinada especificamente para sensoriamento remoto. Experimentos mostraram que a arquitetura proposta superou algoritmos de última geração, demonstrando a eficácia de métodos de aprendizado profundo para codificar características, mesmo para o domínio de sensoriamento remoto. Em seguida, numa tentativa de amenizar as adversidades encontradas ao explorar redes convolucionais, foram avaliadas diferentes estratégias para melhor aproveitar os benefícios dessas técnicas no domínio de sensoriamento remoto. Três estratégias específicas foram avaliadas em três conjuntos distintos de dados. Experimentos mostraram que treinar a rede a partir de um ponto pré-treinado e ajustar seus filtros para o domínio específico é a melhor estratégia para explorar a rede convolucional. A segunda tarefa abordada é a classificação de pixels. Essa tarefa é interessante para a comunidade de sensoriamento remoto, visto que trata-se da criação automática de mapas temáticos que, por sua vez, podem ajudar a melhor compreender situações, como novas áreas urbanas e desmatamento. Considerando tal tarefa, a primeira contribuição é uma nova arquitetura da rede convolucional para realizar a classificação de pixels. Essa técnica é baseada em janelas de contexto, ou seja, pequenas imagens que carregam o contexto dos pixels centralizados e ajudam a entender os padrões espaciais em torno deles. Experimentos mostraram que a abordagem proposta proporciona melhorias significativas quando comparada as outros métodos. Com base nos problemas da técnica anterior e dos métodos existentes, propusemos uma nova abordagem que emprega uma versão evoluída da rede proposta anteriormente, bem como outras arquiteturas, para executar a classificação de todos os pixels da imagem de entrada (ao invés de classificar apenas o central). Esta nova técnica é capaz de agregar informação multicontexto sem aumentar o número de parâmetros. Os resultados mostraram que o algoritmo proposto fornece melhorias na classificação de pixel quando comparado aos métodos de estado da arte. Finalmente, a última contribuição é um novo método que, quando comparado a outras abordagens existentes, é capaz de melhor aprender algumas características visuais, como bordas e cantos, úteis para algumas aplicações e domínios, incluindo o sensoriamento remoto.Este método, chamado Rede Morfológica Profunda (DeepMorphNet), é capaz de realizar e otimizar operações morfológicas, que podem ser capazes de lidar melhor com algumas propriedades visuais dos objetos. Essa DeepMorphNet pode ser treinada e otimizada de ponta a ponta, utilizando técnicas tradicionais existentes, comumente empregadas no treinamento de abordagens de aprendizagem profunda, e pode ser usada em diversas aplicações, como classificação de imagens e pixels, detecção e outros. Uma avaliação sistemática do algoritmo proposto foi conduzida. Resultados mostraram que a DeepMorphNet é uma técnica promissora capaz de aprender características distintas quando comparadas àquelas aprendidas pelos atuais métodos de aprendizagem profunda.
Abstract: A lot of information may be extracted from the Earth's surface through images acquired by airborne sensors. Even more, nowadays, enhanced information may be extracted from high spatial resolution images obtained from new sensor technologies. This information may be exploited in several tasks (including, classification and segmentation) assisting in different applications, such as urban planning, disaster relief, phenological studies, etc. Although widely used, the process of distilling this information is strongly based on efficiently encoding features, a challenging task given the distinct properties of the images. In fact, independently of the task, encoding the spatial features in an efficient and robust fashion is the key to generating good discriminative models. Even though many descriptors have been proposed and successfully used to encode spatial features of remote sensing images, most applications demand specific description techniques. Deep Learning, an emergent machine learning approach based on neural networks, is capable of learning specific features and classifiers at the same time and adjust at each step, in processing time, to better fit the need of each problem. For several tasks, it has achieved very good results, mainly boosted by the feature learning performed which allows the method to extract specific and adaptable features depending on the data. In this project, we tackled two main tasks, image and pixel classification, using Deep Learning to encode spatial features over high-resolution remote sensing images. Initially, we faced the scene classification problem, in which the final model performance is highly dependent on the quality of extracted features. Based on recently published works and after a systematic set of experiments, our first contribution was a novel Convolutional Network architecture fully trained specifically for the remote sensing domain. Experiments showed that the proposed architecture outperformed state-of-the-art algorithms, demonstrating the effectiveness of deep learning methods to encode features even for remote sensing domain. Then, based on adversities to explore deep learning-based techniques (such as small data), we proposed to evaluate different strategies to better exploit Convolutional Networks in the remote sensing domain. Specifically, three strategies were evaluated in three very distinctive datasets. Experiments demonstrate that fine-tuning a network into the specific domain is the best strategy to exploit Convolutional Networks. A second task tackled by this project is the pixelwise classification (also known as semantic segmentation). This task is of great interest to the remote sensing community since it involves the automatic creation of thematic maps from labeled samples. Such maps may help to understand events over a specific region, such as new urban areas, deforestation, etc. Considering such task, our first contribution is a new Convolutional Network architecture to perform pixel classification of remote sensing images. This technique is based on context windows, i.e., overlapping patches that carry the context of the centered pixels and help to understand the spatial patterns around them. Experiments showed that the proposed approach provides significant improvements when compared to traditional and state-of-the-art methods. Then, based on the problems of the previous technique and of other existing methods, we proposed a novel approach that employs an evolved version of the previously proposed network (as well as other architectures) to perform pixel labeling of the entire input image (instead of classifying only the centered pixel). Moreover, this new technique is able to aggregate multi-context information without increasing the number of parameters. Results showed that the proposed algorithm provides improvements in pixelwise classification accuracy when compared to state-of-the-art methods. Finally, our last contribution is a novel method that, when compared to other existing approaches, is capable of better learning some visual characteristics (such as edges and corners), which are very useful for some applications and domains, including the remote sensing one. Precisely, this method, called Deep Morphological Network (DeepMorphNet), is able to perform and optimize non-linear morphological operations, that may be able to better cope with some interesting visual properties of the objects. These DeepMorphNets can be trained and optimized end-to-end using traditional existing techniques commonly employed in the training of deep learning approaches and can be used in several applications, such as image and pixel classification, detection, and so on. A systematic evaluation of the proposed algorithm was conducted. Experimental results showed that the DeepMorphNets is a promising technique that can learn distinct features when compared to the ones learned by current deep learning methods.
Subject: Segmentação de imagens
Computação
Aprendizado do computador
Classificação de imagens
language: Inglês
Publisher: Universidade Federal de Minas Gerais
Publisher Initials: UFMG
Rights: Acesso Aberto
URI: http://hdl.handle.net/1843/SLSC-BCVQQM
Issue Date: 31-May-2019
Appears in Collections:Teses de Doutorado

Files in This Item:
File Description SizeFormat 
keillernogueira.pdf34.1 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.