Please use this identifier to cite or link to this item: http://hdl.handle.net/1843/46720
Type: Dissertação
Title: Challenges in automatic peer review
Other Titles: Desafios na revisão por pares automática
Authors: Gustavo Lúcius Fernandes
First Advisor: Pedro Olmo Stancioli Vaz-de-Melo
First Referee: Helena de Medeiros Caseli
Second Referee: Marcos André Gonçalves
Abstract: The peer review process is the main academic resource to ensure that science advances and is disseminated. To contribute to this important process, works were developed to create classification models capable of predicting the score and the final decision of a paper based on the text of the review report. However, the tasks of scoring a paper and deciding whether to accept or reject it present several challenges for both humans and machines. In this work, we analyze the performance of state-of-the-art models in these tasks, when exposed to hard instances related to text and score change during the rebuttal phase, as well as when exposed to hard instances related to borderline reviews. In addition, we discuss how far we are from having a system to score a paper and decide its final status automatically. Our experiments showed, for example, that the performance of a model to predict the final decision of a paper is 23.31% lower when it is exposed to hard instances. We also found that the classifiers make mistakes with a very high confidence. These and other results led us to conclude that we are still far from automatic systems for scoring papers and predicting their final status based on the text of reviewers’ reports, however we show that the difficulties faced by machines are also faced by humans. This indicates that for the deployment of an automatic peer review system, it may be necessary to rethink the review writing process, so that the reviewers’ impressions and positions are clearer.
Abstract: O processo de revisão por pares é o principal recurso acadêmico para garantir que a ciência avance e seja divulgada. Para contribuir com esse importante processo, trabalhos foram realizados para criar modelos de classificação capazes de prever a nota e a decisão final de um artigo a partir do texto do relatório de revisão. No entanto, as tarefas de dar nota e decidir sobre a aceitação ou rejeição de um artigo apresentam diversos desafios tanto para humanos quanto para máquinas. Neste trabalho, nós analisamos o desempenho de modelos estado da arte nestas tarefas quando expostos a instâncias difíceis relacionadas à mudança de texto e nota durante a fase de rebuttal, bem como instâncias difíceis relacionadas a revisões borderlines. Além disso, discutimos o quão longe estamos de ter um sistema capaz de dar a nota para um artigo e decidir a situação final dele de forma automática. Nossos experimentos mostraram, por exemplo, que o desempenho de um modelo para prever a decisão final de um artigo é 23,31% menor quando exposto a instâncias difíceis e que os classificadores quando erram, cometem esse erro com uma confiança muito alta. Esses e outros resultados nos levaram a concluir que ainda estamos longe de sistemas automáticos para dar notas a artigos e prever a situação final deles por meio do texto dos relatórios dos revisores, no entanto mostramos que as dificuldades enfrentadas pelas máquinas também são enfrentadas por humanos. Isso indica que para a implantação de um sistema de revisão por pares automático, talvez seja necessário repensar o processo de escrita das revisões, para que as impressões e posicionamentos dos revisores sejam mais claras.
Subject: Computação – Teses
Revisão por pares – Teses
Classificação de texto – Teses
Aprendizado de Máquina – Teses
Processamento de Linguagem Natural – Teses
language: eng
metadata.dc.publisher.country: Brasil
Publisher: Universidade Federal de Minas Gerais
Publisher Initials: UFMG
metadata.dc.publisher.department: ICX - DEPARTAMENTO DE CIÊNCIA DA COMPUTAÇÃO
metadata.dc.publisher.program: Programa de Pós-Graduação em Ciência da Computação
Rights: Acesso Restrito
metadata.dc.rights.uri: http://creativecommons.org/licenses/by-nc-nd/3.0/pt/
URI: http://hdl.handle.net/1843/46720
Issue Date: 22-Apr-2022
metadata.dc.description.embargo: 22-Apr-2024
Appears in Collections:Dissertações de Mestrado

Files in This Item:
File Description SizeFormat 
Challenges in Automatic Peer Review - Gustavo Lúcius Fernandes - Dissertação.pdf2.36 MBAdobe PDFView/Open


This item is licensed under a Creative Commons License Creative Commons