Use este identificador para citar o ir al link de este elemento: http://hdl.handle.net/1843/46720
Registro completo de metadatos
Campo DCValorIdioma
dc.contributor.advisor1Pedro Olmo Stancioli Vaz-de-Melopt_BR
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/3262926164579789pt_BR
dc.contributor.referee1Helena de Medeiros Caselipt_BR
dc.contributor.referee2Marcos André Gonçalvespt_BR
dc.creatorGustavo Lúcius Fernandespt_BR
dc.creator.Latteshttp://lattes.cnpq.br/8596457391840162pt_BR
dc.date.accessioned2022-10-27T20:47:21Z-
dc.date.available2022-10-27T20:47:21Z-
dc.date.issued2022-04-22-
dc.identifier.urihttp://hdl.handle.net/1843/46720-
dc.description.abstractO processo de revisão por pares é o principal recurso acadêmico para garantir que a ciência avance e seja divulgada. Para contribuir com esse importante processo, trabalhos foram realizados para criar modelos de classificação capazes de prever a nota e a decisão final de um artigo a partir do texto do relatório de revisão. No entanto, as tarefas de dar nota e decidir sobre a aceitação ou rejeição de um artigo apresentam diversos desafios tanto para humanos quanto para máquinas. Neste trabalho, nós analisamos o desempenho de modelos estado da arte nestas tarefas quando expostos a instâncias difíceis relacionadas à mudança de texto e nota durante a fase de rebuttal, bem como instâncias difíceis relacionadas a revisões borderlines. Além disso, discutimos o quão longe estamos de ter um sistema capaz de dar a nota para um artigo e decidir a situação final dele de forma automática. Nossos experimentos mostraram, por exemplo, que o desempenho de um modelo para prever a decisão final de um artigo é 23,31% menor quando exposto a instâncias difíceis e que os classificadores quando erram, cometem esse erro com uma confiança muito alta. Esses e outros resultados nos levaram a concluir que ainda estamos longe de sistemas automáticos para dar notas a artigos e prever a situação final deles por meio do texto dos relatórios dos revisores, no entanto mostramos que as dificuldades enfrentadas pelas máquinas também são enfrentadas por humanos. Isso indica que para a implantação de um sistema de revisão por pares automático, talvez seja necessário repensar o processo de escrita das revisões, para que as impressões e posicionamentos dos revisores sejam mais claras.pt_BR
dc.description.resumoThe peer review process is the main academic resource to ensure that science advances and is disseminated. To contribute to this important process, works were developed to create classification models capable of predicting the score and the final decision of a paper based on the text of the review report. However, the tasks of scoring a paper and deciding whether to accept or reject it present several challenges for both humans and machines. In this work, we analyze the performance of state-of-the-art models in these tasks, when exposed to hard instances related to text and score change during the rebuttal phase, as well as when exposed to hard instances related to borderline reviews. In addition, we discuss how far we are from having a system to score a paper and decide its final status automatically. Our experiments showed, for example, that the performance of a model to predict the final decision of a paper is 23.31% lower when it is exposed to hard instances. We also found that the classifiers make mistakes with a very high confidence. These and other results led us to conclude that we are still far from automatic systems for scoring papers and predicting their final status based on the text of reviewers’ reports, however we show that the difficulties faced by machines are also faced by humans. This indicates that for the deployment of an automatic peer review system, it may be necessary to rethink the review writing process, so that the reviewers’ impressions and positions are clearer.pt_BR
dc.description.sponsorshipCAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superiorpt_BR
dc.languageengpt_BR
dc.publisherUniversidade Federal de Minas Geraispt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentICX - DEPARTAMENTO DE CIÊNCIA DA COMPUTAÇÃOpt_BR
dc.publisher.programPrograma de Pós-Graduação em Ciência da Computaçãopt_BR
dc.publisher.initialsUFMGpt_BR
dc.rightsAcesso Restritopt_BR
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/pt/*
dc.subjectPeer reviewpt_BR
dc.subjectHard instancespt_BR
dc.subjectText classificationpt_BR
dc.subjectPolarity classificationpt_BR
dc.subjectMachine learningpt_BR
dc.subjectNatural language processingpt_BR
dc.subject.otherComputação – Tesespt_BR
dc.subject.otherRevisão por pares – Tesespt_BR
dc.subject.otherClassificação de texto – Tesespt_BR
dc.subject.otherAprendizado de Máquina – Tesespt_BR
dc.subject.otherProcessamento de Linguagem Natural – Tesespt_BR
dc.titleChallenges in automatic peer reviewpt_BR
dc.title.alternativeDesafios na revisão por pares automáticapt_BR
dc.typeDissertaçãopt_BR
dc.description.embargo2024-04-22-
dc.identifier.orcidhttps://orcid.org/ 0000-0002-1748-8976pt_BR
Aparece en las colecciones:Dissertações de Mestrado

archivos asociados a este elemento:
archivo Descripción TamañoFormato 
Challenges in Automatic Peer Review - Gustavo Lúcius Fernandes - Dissertação.pdf2.36 MBAdobe PDFVisualizar/Abrir


Este elemento está licenciado bajo una Licencia Creative Commons Creative Commons