Please use this identifier to cite or link to this item: http://hdl.handle.net/1843/ESBF-AE8NS9
Type: Dissertação de Mestrado
Title: Ranking-oriented review recommendation
Authors: Luciana Bicalho Maroun
First Advisor: Mirella Moura Moro
First Co-advisor: Jussara Marques de Almeida
First Referee: Ana Paula Couto da Silva
Second Referee: Marcelo Garcia Manzato
Third Referee: Pedro Olmo Stancioli Vaz de Melo
metadata.dc.contributor.referee4: Jussara Marques de Almeida
Abstract: A leitura de revisões online antes de efetuar uma compra se tornou habitual, uma vez que os usuários dependem das mesmas para realizar escolhas mais bem fundamentadas. Entretanto, o crescente volume de revisões representa uma limitação para a sua eficácia de tal forma que muitas técnicas tentam predizer a qualidade global das mesmas. A utilidade percebida, porém, pode não ser padronizada para todos os usuários devido a diferentes experiências e preferências. Dessa forma, a recomendação de revisões de modo personalizado é provavelmente mais precisa. Considerando essa hipótese, algumas estratégias personalizadas foram propostas para recomendação de revisões que, no entanto, não foram comparadas entre si. Além disso, tais técnicas são tipicamente avaliadas usando uma métrica de regressão, enquanto uma de ranking seria mais adequada por representar melhor o resultado final apresentado aos usuários. Neste trabalho, os métodos de recomendação de revisões especializados são implementados, investigados e comparados assim como outros genéricos que não foram avaliados sob um ponto de vista personalizado e de ranking. Usando um conjunto de dados do Ciao UK, os experimentos realizados consideram ajuste de parâmetros, métricas de regressão e de ranking e comparação por meio de testes estatísticos. Os resultados indicam que as abordagens mais simples superam as mais complexas, e atributos observados assim como a avaliação sob uma perspectiva de ranking são característisticas importantes para esse problema. Todavia, as técnicas de regressão obtêm, supreendentemente, o melhor desempenho para ranking: uma Máquina de Vetor de Suporte para Regressão com kernel linear é a melhor abordagem, seguida pela Regressão Linear. Ambas ultrapassam estatisticamente métodos de aprendizado de ranking, sistemas de recomendação tradicionais e abordagens especializadas. Inspecionando o melhor método, conclui-se que o uso de apenas alguns poucos atributos melhora o desempenho, e a versão não-personalizada não é tão distante em eficácia da personalizada, apesar de estatisticamente pior. Por fim, a inclusão de novos atributos e a otimização conjunta de um erro de ranking provêm uma pequena, porém significativa melhoria em relação à versão original.
Abstract: Reading online reviews before a purchase has become a customary action. Nevertheless, the increasing volume of reviews works as a barrier to their effectiveness so that many approaches try to predict reviews global quality. The perceived helpfulness, however, may not be standardized to all users and a few personalized strategies were proposed, albeit not compared against each other. Also, such techniques are evaluated with a regression metric, whereas we argue that a ranking one is more adequate. In this work, we analyze and compare specialized and generic approaches for review recommendation that were not previously evaluated under a ranking viewpoint. Our results indicate that observed features as well as ranking evaluation are important traits for this problem. Specifically, Support Vector Regression approximates ranking goal and is the best performer. Finally, exploiting new features and jointly optimizing a ranking loss provide a slight but significant improvement.
Subject: Sistemas de recomendação
Computação
Sistemas de recuperação da informação
language: Inglês
Publisher: Universidade Federal de Minas Gerais
Publisher Initials: UFMG
Rights: Acesso Aberto
URI: http://hdl.handle.net/1843/ESBF-AE8NS9
Issue Date: 3-Mar-2016
Appears in Collections:Dissertações de Mestrado

Files in This Item:
File Description SizeFormat 
lucianamaroun.pdf4.98 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.