Please use this identifier to cite or link to this item: http://hdl.handle.net/1843/RVMR-6EANZ5
Full metadata record
DC FieldValueLanguage
dc.contributor.advisor1Rodrigo Lima Carceronipt_BR
dc.contributor.advisor-co1Mario Fernando Montenegro Campospt_BR
dc.contributor.referee1Alexei Manso Correa Machadopt_BR
dc.contributor.referee2Luiz Carlos Pacheco Rodrigies Velhopt_BR
dc.contributor.referee3Renato Cardoso Mesquitapt_BR
dc.contributor.referee4Geraldo Robson Mateuspt_BR
dc.creatorJose Pinheiro de Queiroz Netopt_BR
dc.date.accessioned2019-08-10T07:13:02Z-
dc.date.available2019-08-10T07:13:02Z-
dc.date.issued2005-06-03pt_BR
dc.identifier.urihttp://hdl.handle.net/1843/RVMR-6EANZ5-
dc.description.abstractThis thesis deals with the problem of acquiring the models of a scene from its images, where the correspondence between the image pixels intensities and the real colors of the scene cannot be determined using a local illumination model of the interaction of the light with the scene. More specifically, the problem is treated in two particular cases in distinctscenes.In the first case, we have the underwater scenes in muddy water where the light interacts globally with the environment, to which we developed a methodology to extract the scenes geometry, by integrating a light propagation model into a stereo vision algorithm and recoveringthe disparity maps from images pairs acquired from distinct viewpoints. Experimental results are compared to known methods. The method allows to restore the images of theunderwater scene.In the second case, we have a scene where the light interacts globally with objects that has homogeneous, reflexives and translucent surfaces, presenting shades and Inter-reflection between objects, to which we developed a method of recovering the reflectance parameters to each object of the scene, by solving a factorized equation system obtained using just one rendering and having as restrictions an image of the scene, whose solution is more steady and efficient in comparison to similar methods.pt_BR
dc.description.resumoEsta tese trata do problema de adquirir os modelos de uma cena a partir de imagens, onde a correspondência entre as intensidades dos pixels das imagens e as cores reais da cena não podem ser explicadas a partir de um modelo de iluminação local da interação da luz com a cena. Mais especificamente, o problema é abordado em dois casos particulares tratados em cenários distintos.No primeiro caso, têm-se cenas submersas em água turva onde a luz interage globalmente com o meio, ao qual é desenvolvida uma metodologia para extrair a geometria da cena, utilizando-se um modelo de propagação da luz na água integrado a um algoritmo de visão estéreo, recuperando o mapa de disparidades a partir de um par estéreo da cena adquirido em pontos de vista distintos. Resultados experimentais comparam favoravelmente o método proposto nesta tese a um método de estéreo denso bem estabelecido. O método permite, ainda, restaurar as imagens da cena subaquática.No segundo caso, têm-se cenas onde a luz interage globalmente com objetos com superfícies homogêneas, reflexivas e translúcidas, apresentando sombras e inter-reflexão entre objetos, ao qual é desenvolvido um método para adquirir os parâmetros de um modelo de reflectância de cada objeto da cena, resolvendo um sistema de equações fatorado obtido a partir de uma única renderização e tendo como restrições uma imagem da cena, cuja solução é mais estável e eficiente em comparação a métodos similares.pt_BR
dc.languagePortuguêspt_BR
dc.publisherUniversidade Federal de Minas Geraispt_BR
dc.publisher.initialsUFMGpt_BR
dc.rightsAcesso Abertopt_BR
dc.subjectModelagem de cenaspt_BR
dc.subjectImagenspt_BR
dc.subject.otherModelagempt_BR
dc.subject.otherComputaçãopt_BR
dc.subject.otherProcessamento de imagem Técnicas digitaispt_BR
dc.titleModelagem automática de cenas com iluminação local a partir de imagenspt_BR
dc.typeTese de Doutoradopt_BR
Appears in Collections:Teses de Doutorado

Files in This Item:
File SizeFormat 
jose_pinheiro.pdf7.3 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.