Challenges in automatic peer review

dc.creatorGustavo Lúcius Fernandes
dc.date.accessioned2022-10-27T20:47:21Z
dc.date.accessioned2025-09-08T23:01:04Z
dc.date.available2022-10-27T20:47:21Z
dc.date.issued2022-04-22
dc.description.abstractO processo de revisão por pares é o principal recurso acadêmico para garantir que a ciência avance e seja divulgada. Para contribuir com esse importante processo, trabalhos foram realizados para criar modelos de classificação capazes de prever a nota e a decisão final de um artigo a partir do texto do relatório de revisão. No entanto, as tarefas de dar nota e decidir sobre a aceitação ou rejeição de um artigo apresentam diversos desafios tanto para humanos quanto para máquinas. Neste trabalho, nós analisamos o desempenho de modelos estado da arte nestas tarefas quando expostos a instâncias difíceis relacionadas à mudança de texto e nota durante a fase de rebuttal, bem como instâncias difíceis relacionadas a revisões borderlines. Além disso, discutimos o quão longe estamos de ter um sistema capaz de dar a nota para um artigo e decidir a situação final dele de forma automática. Nossos experimentos mostraram, por exemplo, que o desempenho de um modelo para prever a decisão final de um artigo é 23,31% menor quando exposto a instâncias difíceis e que os classificadores quando erram, cometem esse erro com uma confiança muito alta. Esses e outros resultados nos levaram a concluir que ainda estamos longe de sistemas automáticos para dar notas a artigos e prever a situação final deles por meio do texto dos relatórios dos revisores, no entanto mostramos que as dificuldades enfrentadas pelas máquinas também são enfrentadas por humanos. Isso indica que para a implantação de um sistema de revisão por pares automático, talvez seja necessário repensar o processo de escrita das revisões, para que as impressões e posicionamentos dos revisores sejam mais claras.
dc.description.sponsorshipCAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
dc.identifier.urihttps://hdl.handle.net/1843/46720
dc.languageeng
dc.publisherUniversidade Federal de Minas Gerais
dc.rightsAcesso Restrito
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/pt/
dc.subjectComputação – Teses
dc.subjectRevisão por pares – Teses
dc.subjectClassificação de texto – Teses
dc.subjectAprendizado de Máquina – Teses
dc.subjectProcessamento de Linguagem Natural – Teses
dc.subject.otherPeer review
dc.subject.otherHard instances
dc.subject.otherText classification
dc.subject.otherPolarity classification
dc.subject.otherMachine learning
dc.subject.otherNatural language processing
dc.titleChallenges in automatic peer review
dc.title.alternativeDesafios na revisão por pares automática
dc.typeDissertação de mestrado
local.contributor.advisor1Pedro Olmo Stancioli Vaz-de-Melo
local.contributor.advisor1Latteshttp://lattes.cnpq.br/3262926164579789
local.contributor.referee1Helena de Medeiros Caseli
local.contributor.referee1Marcos André Gonçalves
local.creator.Latteshttp://lattes.cnpq.br/8596457391840162
local.description.embargo2024-04-22
local.description.resumoThe peer review process is the main academic resource to ensure that science advances and is disseminated. To contribute to this important process, works were developed to create classification models capable of predicting the score and the final decision of a paper based on the text of the review report. However, the tasks of scoring a paper and deciding whether to accept or reject it present several challenges for both humans and machines. In this work, we analyze the performance of state-of-the-art models in these tasks, when exposed to hard instances related to text and score change during the rebuttal phase, as well as when exposed to hard instances related to borderline reviews. In addition, we discuss how far we are from having a system to score a paper and decide its final status automatically. Our experiments showed, for example, that the performance of a model to predict the final decision of a paper is 23.31% lower when it is exposed to hard instances. We also found that the classifiers make mistakes with a very high confidence. These and other results led us to conclude that we are still far from automatic systems for scoring papers and predicting their final status based on the text of reviewers’ reports, however we show that the difficulties faced by machines are also faced by humans. This indicates that for the deployment of an automatic peer review system, it may be necessary to rethink the review writing process, so that the reviewers’ impressions and positions are clearer.
local.identifier.orcidhttps://orcid.org/ 0000-0002-1748-8976
local.publisher.countryBrasil
local.publisher.departmentICX - DEPARTAMENTO DE CIÊNCIA DA COMPUTAÇÃO
local.publisher.initialsUFMG
local.publisher.programPrograma de Pós-Graduação em Ciência da Computação

Arquivos

Pacote original

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
Challenges in Automatic Peer Review - Gustavo Lúcius Fernandes - Dissertação.pdf
Tamanho:
2.3 MB
Formato:
Adobe Portable Document Format

Licença do pacote

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
license.txt
Tamanho:
2.07 KB
Formato:
Plain Text
Descrição: