Please use this identifier to cite or link to this item: http://hdl.handle.net/1843/30489
Full metadata record
DC FieldValueLanguage
dc.contributor.advisor1Rodrygo Luis Teodoro Santospt_BR
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/1162362624079364pt_BR
dc.contributor.advisor-co1Nivio Zivianipt_BR
dc.contributor.referee1Altigran Soares da Silvapt_BR
dc.contributor.referee2Marcos André Gonçalvespt_BR
dc.creatorRafael Glater da Cruz Machadopt_BR
dc.creator.Latteshttp://lattes.cnpq.br/7329858225436491pt_BR
dc.date.accessioned2019-10-17T20:20:51Z-
dc.date.available2019-10-17T20:20:51Z-
dc.date.issued2017-04-07-
dc.identifier.urihttp://hdl.handle.net/1843/30489-
dc.description.abstractO entendimento de uma consulta é uma tarefa desafiadora, principalmente devido à ambigüidade inerente da linguagem natural. Uma estratégia comum para melhorar a compreensão das consultas em linguagem natural é anotá-las com informações semânticas extraídas de uma base de conhecimento. No entanto, consultas com diferentes intenções podem se beneficiar de diferentes estratégias de anotação. Por exemplo, algumas consultas podem ser efetivamente anotadas com uma única entidade ou um atributo de entidade, outras podem ser melhor representadas por uma lista de entidades de um único tipo ou por entidades de vários tipos distintos, e outras podem ser simplesmente ambíguas. Nesta dissertação, propomos um framework para aprendizagem de anotações semânticas em consultas de acordo com a intenção existente em cada uma. Experimentos minuciosos em um benchmark publicamente disponível mostram que a abordagem proposta pode melhorar significativamente quando comparadas às abordagens agnósticas baseadas em campos aleatórios de Markov e de aprendizado de ranqueamento. Nossos resultados demonstram ainda, de forma consistente, a eficácia de nossa abordagem para consultas de várias intenções, comprimentos e níveis de dificuldade, bem como sua robustez ao ruído na detecção de intenção.pt_BR
dc.description.resumoQuery understanding is a challenging task primarily due to the inherent ambiguity of natural language. A common strategy for improving the understanding of natural language queries is to annotate them with semantic information mined from a knowledge base. Nevertheless, queries with different intents may arguably benefit from specialized annotation strategies. For instance, some queries could be effectively annotated with a single entity or an entity attribute, others could be better represented by a list of entities of a single type or by entities of multiple distinct types, and others may be simply ambiguous. In this dissertation, we propose a framework for learning semantic query annotations suitable to the target intent of each individual query. Thorough experiments on a publicly available benchmark show that our proposed approach can significantly improve state-of-the-art intent-agnostic approaches based on Markov random fields and learning to rank. Our results further demonstrate the consistent effectiveness of our approach for queries of various target intents, lengths, and difficulty levels, as well as its robustness to noise in intent detection.pt_BR
dc.languageengpt_BR
dc.publisherUniversidade Federal de Minas Geraispt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.programPrograma de Pós-Graduação em Ciência da Computaçãopt_BR
dc.publisher.initialsUFMGpt_BR
dc.rightsAcesso Abertopt_BR
dc.subjectAprendizado de ranqueamentopt_BR
dc.subjectRecuperação da informaçãopt_BR
dc.subjectAprendizado de representaçõespt_BR
dc.subjectBusca semânticapt_BR
dc.subjectAnotação semântica em consultaspt_BR
dc.subject.otherAprendizado de ranqueamentopt_BR
dc.subject.otherRecuperação de informaçãopt_BR
dc.titleIntent-aware semantic query annotationpt_BR
dc.title.alternativeAnotações semânticas em consultas baseada na intenção do usuáriopt_BR
dc.typeDissertaçãopt_BR
Appears in Collections:Dissertações de Mestrado

Files in This Item:
File Description SizeFormat 
RafaelGlaterdaCruzMachado.pdf2.19 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.