Use este identificador para citar ou linkar para este item: http://hdl.handle.net/1843/46720
Tipo: Dissertação
Título: Challenges in automatic peer review
Título(s) alternativo(s): Desafios na revisão por pares automática
Autor(es): Gustavo Lúcius Fernandes
Primeiro Orientador: Pedro Olmo Stancioli Vaz-de-Melo
Primeiro membro da banca : Helena de Medeiros Caseli
Segundo membro da banca: Marcos André Gonçalves
Resumo: The peer review process is the main academic resource to ensure that science advances and is disseminated. To contribute to this important process, works were developed to create classification models capable of predicting the score and the final decision of a paper based on the text of the review report. However, the tasks of scoring a paper and deciding whether to accept or reject it present several challenges for both humans and machines. In this work, we analyze the performance of state-of-the-art models in these tasks, when exposed to hard instances related to text and score change during the rebuttal phase, as well as when exposed to hard instances related to borderline reviews. In addition, we discuss how far we are from having a system to score a paper and decide its final status automatically. Our experiments showed, for example, that the performance of a model to predict the final decision of a paper is 23.31% lower when it is exposed to hard instances. We also found that the classifiers make mistakes with a very high confidence. These and other results led us to conclude that we are still far from automatic systems for scoring papers and predicting their final status based on the text of reviewers’ reports, however we show that the difficulties faced by machines are also faced by humans. This indicates that for the deployment of an automatic peer review system, it may be necessary to rethink the review writing process, so that the reviewers’ impressions and positions are clearer.
Abstract: O processo de revisão por pares é o principal recurso acadêmico para garantir que a ciência avance e seja divulgada. Para contribuir com esse importante processo, trabalhos foram realizados para criar modelos de classificação capazes de prever a nota e a decisão final de um artigo a partir do texto do relatório de revisão. No entanto, as tarefas de dar nota e decidir sobre a aceitação ou rejeição de um artigo apresentam diversos desafios tanto para humanos quanto para máquinas. Neste trabalho, nós analisamos o desempenho de modelos estado da arte nestas tarefas quando expostos a instâncias difíceis relacionadas à mudança de texto e nota durante a fase de rebuttal, bem como instâncias difíceis relacionadas a revisões borderlines. Além disso, discutimos o quão longe estamos de ter um sistema capaz de dar a nota para um artigo e decidir a situação final dele de forma automática. Nossos experimentos mostraram, por exemplo, que o desempenho de um modelo para prever a decisão final de um artigo é 23,31% menor quando exposto a instâncias difíceis e que os classificadores quando erram, cometem esse erro com uma confiança muito alta. Esses e outros resultados nos levaram a concluir que ainda estamos longe de sistemas automáticos para dar notas a artigos e prever a situação final deles por meio do texto dos relatórios dos revisores, no entanto mostramos que as dificuldades enfrentadas pelas máquinas também são enfrentadas por humanos. Isso indica que para a implantação de um sistema de revisão por pares automático, talvez seja necessário repensar o processo de escrita das revisões, para que as impressões e posicionamentos dos revisores sejam mais claras.
Assunto: Computação – Teses
Revisão por pares – Teses
Classificação de texto – Teses
Aprendizado de Máquina – Teses
Processamento de Linguagem Natural – Teses
Idioma: eng
País: Brasil
Editor: Universidade Federal de Minas Gerais
Sigla da Instituição: UFMG
Departamento: ICX - DEPARTAMENTO DE CIÊNCIA DA COMPUTAÇÃO
Curso: Programa de Pós-Graduação em Ciência da Computação
Tipo de Acesso: Acesso Restrito
metadata.dc.rights.uri: http://creativecommons.org/licenses/by-nc-nd/3.0/pt/
URI: http://hdl.handle.net/1843/46720
Data do documento: 22-Abr-2022
Término do Embargo: 22-Abr-2024
Aparece nas coleções:Dissertações de Mestrado

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
Challenges in Automatic Peer Review - Gustavo Lúcius Fernandes - Dissertação.pdf2.36 MBAdobe PDFVisualizar/Abrir


Este item está licenciada sob uma Licença Creative Commons Creative Commons