Mining large amount of short text data in your desktop

dc.creatorLarissa Sayuri Futino Castro dos Santos
dc.date.accessioned2020-05-29T19:05:56Z
dc.date.accessioned2025-09-09T00:59:05Z
dc.date.available2020-05-29T19:05:56Z
dc.date.issued2019-06-27
dc.description.abstractProblemas de classificação/categorização de texto tornam-se ainda mais desafiadores quando os documentos de interesse são curtos. Além da falta de contexto, texto advindos da web tem o agravante da espontaneidade, flexibilidade e informalidade. Esse trabalho propõe uma metodologia que viabilize a indução de classificadores de texto para bases de dados grandes por usuários com disponibilidade de computadores comuns e sem conhecimento avançado em computação paralela e/ou distribuída. A metodologia proposta divide-se em dois passos. No primeiro deles, como etapa inicial, procede-se com a partição do banco de dados em subconjuntos de dados menores. No segundo passo cada subconjunto induz um classificador específico a partir de uma técnica supervisionada de Aprendizado de Máquina. A indução de um classificador com a coleção completa é substituída por induções de classificadores com menos dados o que reduz o esforço computacional. Além disso, viabiliza-se também a indução de múltiplos classificadores em distintos cores do computador concomitantemente. Isso denota uma paralelização computacional simples, o que reduz o tempo de processamento para a execução da tarefa. A metodologia também permite o emprego de distintas formas de representação do texto (o uso do vocabulário observado, com diferentes formas de seleção de atributos, o uso de anotação, bigramas, etc). Também é possível o uso de diferentes técnicas de agrupamento e Aprendizado de Máquina. Tais técnicas podem ser especificadas de acordo com as preferências do usuário, contexto e dificuldades do problema ou infra-estrutura disponível. Experimentos com distintos tipo de técnicas de classificação são realizadas. Apresentam-se análises para um base de tweets coletados na região de São Paulo-SP, Brasil no tópico de crime. A eficiência da metodologia é comprovada com o seu emprego em uma base de dados de 1.600.000 tweets em inglês, no domínio de Análise de Sentimento.
dc.description.sponsorshipCAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
dc.identifier.urihttps://hdl.handle.net/1843/33568
dc.languageeng
dc.publisherUniversidade Federal de Minas Gerais
dc.rightsAcesso Aberto
dc.subjectEstatística – Teses
dc.subjectAnálise por conglomerados
dc.subjectMineração de dados (Computação)
dc.subjectClassificação de Textos
dc.subjectAprendizado do computador
dc.subject.othertext classification
dc.subject.othermachine learning
dc.subject.otherpartition clustering
dc.subject.otherfeature selection
dc.subject.otheredit distance
dc.titleMining large amount of short text data in your desktop
dc.title.alternativeMinerando grandes bases de textos curtos em um desktop comum
dc.typeTese de doutorado
local.contributor.advisor-co1Michael Oakes
local.contributor.advisor1Marcos Oliveira Prates
local.contributor.advisor1Latteshttp://lattes.cnpq.br/7893235207392165
local.contributor.referee1Rafael Bassi Stern
local.contributor.referee1Clécio da Silva Ferreira
local.contributor.referee1Marcelo Azevedo Costa
local.contributor.referee1Ilka Afonso Reis
local.creator.Latteshttp://lattes.cnpq.br/3092604714336640
local.description.resumoThis work describes the classification of texts as being either crime-related or non-crime-related. Given the spontaneity and popularity of Twitter, we collected some posts related to crime and criminology, in the state of São Paulo-SP Brazil. However, this data set is not a collection of crime reports. As the web language is characterized by diversity including flexibility, spontaneity and informality we need a classification rule to filter the documents which really are in the context. The proposed methodology works in a two-step framework. In the first step, we partition the text database into smaller data sets which define text collections with characteristics (not necessarily directly observable) which allow a better classification process. This enables the usage of parallel computing which decreases the time process required for the technique execution. Later on, each subset of the data induces a distinct classification rule with a Supervised Machine Learning technique. For the sake of simplicity, we work with KMeans and KMedoids and linear SVM. We will present our results in terms of speed and classification accuracy using various feature sets, including semantic codes. Analysis with distinct classifier induction techniques as Random Forest, Logistic Regression, and Boosting is also provided. An application with a huge data set of 1,600,000 tweets written in English proofs the method's efficiency.
local.publisher.countryBrasil
local.publisher.departmentICX - DEPARTAMENTO DE ESTATÍSTICA
local.publisher.initialsUFMG
local.publisher.programPrograma de Pós-Graduação em Estatística

Arquivos

Pacote original

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
LarissaSayuriFutinoCastroDosSantosFinal.pdf
Tamanho:
5.53 MB
Formato:
Adobe Portable Document Format

Licença do pacote

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
license.txt
Tamanho:
2.07 KB
Formato:
Plain Text
Descrição: