Please use this identifier to cite or link to this item: http://hdl.handle.net/1843/SLSS-7WJN62
Type: Dissertação de Mestrado
Title: Um método automático para estimativa da qualidade de enciclopédias colaborativas on-line: um estudo de caso sobre a wikipédia
Authors: Daniel Hasan Dalip
First Advisor: Marcos Andre Goncalves
First Co-advisor: Marco Antônio Pinheiro de Cristo
First Referee: Renata de Matos Galante
Second Referee: Gisele Lobo Pappa
Abstract: O antigo sonho de livre acesso a um repositório contendo todo o conhecimento e cultura humana está se tornando realidade através da Internet e da participação colaborativa dos seus usuários. A Wikipédia é um grande exemplo de repositório de livre acesso e edição criado através do esforço colaborativo de sua comunidade de usuários. Entretanto, esta enorme quantidade de informação disponibilizada de forma democrática causa uma grande preocupação quanto à qualidade de seu conteúdo. Nesta dissertação foram coletados um grande número de indícios de qualidade, alguns já propostos e outros novos e utilizados pela primeira vez para este fim, com o objetivo de estudar a capacidade dos mesmos em estimar a qualidade dos artigos da Wikipédia. Além disso, foi apresentada uma nova abordagem para combinar estes indícios, utilizando técnicas de aprendizado de máquina, para extrair um valor unificado referente à qualidade desses artigos. Com este trabalho foi possível analisar o impacto de cada indício e foi identificado, por exemplo, que os mais promissores em estimar a qualidade de um artigo são aqueles mais simples de extrair em qualquer biblioteca digital de acesso livre: os que levam em conta o conteúdo do texto atual como, por exemplo, o tamanho do artigo e a sua estrutura. Também foi identificado quais indícios não foram tão importantes na estimativa da qualidade. Estes indícios são, coincidentemente, os mais complexos de extrair, como os baseados em análise de ligações. Por fim, o método proposto demonstrou ganhos significativos na estimativa da qualidade de artigos ao compará-lo com as soluções estado-da-arte na literatura.
Abstract: The old dream of a universal repository containing all the human knowledge and culture is becoming possible through the Internet and the Web. Moreover, this is happening with the direct collaborative, participation of people. Wikipedia is a great example. It is an enormous repository of information with free access and edition, created by the community in a collaborative manner. However, this large amount of information, made available democratically and virtually without any control, raises questions about its relative quality. In this work we explore a significant number of quality indicators, some of them proposed by us and used here for the first time, and study their capability to assess the quality of Wikipedia articles. Furthermore, we explore machine learning techniques to combine these quality indicators into one single assessment judgment. Through experiments, we show that the most important quality indicators are the easiest ones to extract on a open digital library, namely, textual features related to length, structure and style. We were also able to determine which indicators did not contribute significantly to the quality assessment. These were, coincidentally, the most complex features, such as those based on link analysis. Finally, we compare our combination method with state-of-the-art solutions and show significant improvements in terms of effective quality prediction.
Subject: Bibliotecas digitais
Recuperação de informação
language: Português
Publisher: Universidade Federal de Minas Gerais
Publisher Initials: UFMG
Rights: Acesso Aberto
URI: http://hdl.handle.net/1843/SLSS-7WJN62
Issue Date: 3-Apr-2009
Appears in Collections:Dissertações de Mestrado

Files in This Item:
File Description SizeFormat 
danielhasandalip.pdf793.91 kBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.