Detecção de réplicas de sítios Web em máquinas de busca usando aprendizado de máquina

dc.creatorRickson Guidolini
dc.date.accessioned2019-08-14T09:00:52Z
dc.date.accessioned2025-09-09T00:20:23Z
dc.date.available2019-08-14T09:00:52Z
dc.date.issued2011-03-11
dc.description.abstractEarlier work estimate that at least 30% of all content available on the Web is replicated content, posing serious challenges to search engines, such as waste of computational resources and decrease in the search effectiveness. Thus, detection of replicated websites is currently a prerequisite for the development of modern search engines. However, the large amount of dynamic content and the huge amount of potential replicas make the detection of replicated website an extremely difficult task. This work focus on the development of new techniques for detecting replicated websites. Intrinsic features of replicated sites were studied and, depending on the value assumed by these features, we can discriminate pairs of replicated and nonreplicated sites. However, (i) there is great difficulty in finding the optimal values that lead to the best discriminative performance, and (ii) there is a lot of features to becombined in order to obtain the best discrimination. Therefore, we evaluated the use of machine learning techniques for detecting replicated websites and we propose an algorithm called DREAM (Detecção de RÉplicas usando Aprendizado de Máquina), which automatically combines and weights the proposed discriminative features.The algorithm DREAM was evaluated through the use of a real collection of sites, collected from the Brazilian Web. Four machine learning algorithms were evaluated: decision trees (C4.5), lazy associative classification (LAC), combinations of trees (random forests) and support vector machine (SVM). Experimental results show that the algorithm DREAM outperforms by 35.1% the best method in the literature in terms of F1 measure. The experimental results indicate that the use of machinelearning techniques lead to superior results comparing to the known algorithms in the literature.
dc.identifier.urihttps://hdl.handle.net/1843/SLSS-8GQLET
dc.languageInglês
dc.publisherUniversidade Federal de Minas Gerais
dc.rightsAcesso Aberto
dc.subjectFerramentas de busca na Web
dc.subjectComputação
dc.subjectSistemas de recuperação da informação
dc.subject.otherDetecção de réplicas de sítios
dc.subject.otherRecuperação de Informação
dc.subject.otherAprendizado de máquina
dc.titleDetecção de réplicas de sítios Web em máquinas de busca usando aprendizado de máquina
dc.typeDissertação de mestrado
local.contributor.advisor-co1Adriano Alonso Veloso
local.contributor.advisor1Nivio Ziviani
local.contributor.referee1Edleno Silva de Moura
local.contributor.referee1Marco Antônio Pinheiro de Cristo
local.description.resumoEstima-se que pelo menos 30% de todo o conteúdo disponibilizado na Web seja conteúdo replicado impondo sérios desafios às máquinas de busca, tais como desperdício de recursos computacionais e diminuição de efetividade na busca. Dessa forma, a detecção de sítios web replicados é atualmente um pré-requisito para o desenvolvimento de máquinas de busca modernas. No entanto, a grande quantidade de conteúdo dinâmico e o imenso volume de potenciais réplicas tornam a tarefa de detecção de sítios replicados extremamente difícil.O objetivo deste trabalho é a elaboração de novas técnicas de detecção de sítios replicados. Características intrínsecas de sítios replicados foram estudadas e, dependendo do valor que essas características assumem, podemos discriminar pares de sítios replicados e não-replicados. No entanto, (i) há uma grande dificuldade em encontrar o valor ideal para o qual temos a melhor discriminação, e (ii) há uma grande quantidade de características a serem combinadas de forma a se obter a melhor discriminação. Sendo assim, avaliamos a utilização de técnicas de aprendizado de máquina para a detecção de sítios web replicados e propomos um algoritmo denominado DREAM (Detecçãode RÉplicas usando Aprendizado de Máquina), que combina e pondera de forma automática as características discriminatórias propostas.O algoritmo DREAM foi avaliado em uma coleção real de sítios coletados da Web brasileira. Quatro algoritmos de aprendizado de máquina foram avaliados: árvores de decisão (C4.5), classificação associativa (LAC), combinações de árvores (Random Forests) e máquina de vetor de suporte (SVM). Resultados experimentais mostramque o algoritmo DREAM, usando combinações aleatórias de árvores, supera em 35;1% o melhor método da literatura em termos da métrica F1. Os resultados experimentais indicam que a utilização de técnicas de aprendizado de máquina leva a resultados superiores aos obtidos pelos algoritmos existentes na literatura.
local.publisher.initialsUFMG

Arquivos

Pacote original

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
ricksonguidolini.pdf
Tamanho:
1.72 MB
Formato:
Adobe Portable Document Format