On the cost-effectiveness of stacking of neural and non-neural methods for text classification: scenarios and performance prediction

dc.creatorChristian Reis Fagundes Gomes
dc.date.accessioned2022-09-09T16:14:29Z
dc.date.accessioned2025-09-08T23:50:31Z
dc.date.available2022-09-09T16:14:29Z
dc.date.issued2021-10-06
dc.description.abstractAlgoritmos de redes neurais, como aqueles baseados em transformers e modelos de atenção, têm se destacado em tarefas de Classificação Automática de Texto (ATC). No entanto, essa melhora de desempenho tem altos custos computacionais. Conjuntos de classificadores mais simples (ou seja, Stacking) que exploram complementaridades dos algoritmos e representações textuais também mostraram produzir desempenho de alto nível em ATC, desfrutando de alta eficácia e custos computacionais potencialmente mais baixos. Nesse contexto, apresentamos o primeiro e maior estudo comparativo para explorar a relação custo-benefício do stacking de classificadores ATC, composto por transformers e algoritmos que não utilizam redes neurais. Em particular, estamos interessados em responder a perguntas de pesquisa tais como: (1) É possível obter uma combinação de classificadores eficaz com custo computacional significativamente menor do que o melhor modelo de aprendizado para um determinado conjunto de dados? (2) Desconsiderando o custo computacional, existe uma combinação de classificadores que pode melhorar a eficácia do melhor modelo de aprendizagem? Além de responder a tais questões, outra contribuição principal dessa dissertação é a proposta de um método baseado em oráculos de baixo custo que pode prever o melhor ensemble em cada cenário (com e sem limitações de custo computacional) usando apenas uma fração dos dados de treinamento disponíveis.
dc.description.sponsorshipCAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
dc.identifier.urihttps://hdl.handle.net/1843/45067
dc.languagepor
dc.publisherUniversidade Federal de Minas Gerais
dc.rightsAcesso Aberto
dc.rights.urihttp://creativecommons.org/licenses/by/3.0/pt/
dc.subjectComputação – Teses
dc.subjectProcessamento da linguagem natural (Computação)–Teses
dc.subjectIndexação automatica –Teses
dc.subjectAprendizado Ensemble – Teses
dc.subject.otherNatural language processing
dc.subject.otherAutomatic text classification
dc.subject.otherEnsemble learning
dc.subject.otherStacking blending
dc.titleOn the cost-effectiveness of stacking of neural and non-neural methods for text classification: scenarios and performance prediction
dc.typeDissertação de mestrado
local.contributor.advisor-co1Leonardo Chaves Dutra da Rocha
local.contributor.advisor1Marcos André Gonçalves
local.contributor.advisor1Latteshttp://lattes.cnpq.br/3457219624656691
local.contributor.referee1Rodrygo Luis Teodoro Santos
local.contributor.referee1Alexandre Plastino de Carvalho
local.creator.Latteshttp://lattes.cnpq.br/1774808342474207
local.description.resumoNeural network algorithms such as those based on transformers and attention models have excelled on Automatic Text Classification (ATC) tasks. However, such enhanced performance comes at high computational costs. Ensembles of simpler classifiers (i.e., stacking) that exploit algorithmic and representational complementarities have also been shown to produce top-notch performance in ATC, enjoying high effectiveness and potentially lower computational costs. In this context, we present the first and largest comparative study to exploit the cost-effectiveness of stacking of ATC classifiers, consisting of transformers and non-neural algorithms. In particular, we are interested in answering research questions such as: Is it possible to obtain an effective ensemble with significantly less computational cost than the best learning model for a given dataset? Disregarding the computational cost, can an ensemble improve the effectiveness of the best learning model? Besides answering such questions, another main contribution of this dissertation is the proposal of a low-cost oracle-based method that can predict the best ensemble in each scenario (with and without computational cost limitations) using only a fraction of the available training data.
local.publisher.countryBrasil
local.publisher.departmentICX - DEPARTAMENTO DE CIÊNCIA DA COMPUTAÇÃO
local.publisher.initialsUFMG
local.publisher.programPrograma de Pós-Graduação em Ciência da Computação

Arquivos

Pacote original

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
dissertacao_new.pdf
Tamanho:
39.93 MB
Formato:
Adobe Portable Document Format

Licença do pacote

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
license.txt
Tamanho:
2.07 KB
Formato:
Plain Text
Descrição: