Please use this identifier to cite or link to this item: http://hdl.handle.net/1843/LETR-AX8HUG
Type: Dissertação de Mestrado
Title: Correlatos fonético-acústicos de fronteiras prosódicas na fala espontânea
Authors: Barbara Heloha Falcao Teixeira
First Advisor: Tommaso Raso
First Co-advisor: Plinio Almeida Barbosa
First Referee: Joao Antonio de Moraes
Second Referee: Rui Rothe-neves
Abstract: Este trabalho apresenta propostas de modelos de detecção automática de fronteiras prosódicas, baseadas em múltiplos parâmetros fonético-acústicos, para possibilitar a construção de uma ferramenta computacional capaz de segmentar a fala espontânea em unidades entonacionais. Uma amostra de sete trechos de fala espontânea monológica foi segmentada em unidades entonacionais por quatorze segmentadores treinados. As fronteiras prosódicas percebidas pelos segmentadores foram marcadas como fronteiras prosódicas terminais e não terminais. Desenvolveu-se um script do software de análise acústica Praat para extrair uma série de parâmetros fonético-acústicos ao longo do sinal sonoro. Dois classificadores estatísticos, Random Forest (RF) e Linear Discriminant Analysis (LDA), foram utilizados para gerar modelos com subconjuntos de parâmetros fonético-acústicos, que poderiam funcionar como preditores de fronteiras prosódicas. A avaliação inicial dos classificadores mostra que ambos os classificadores apresentam sucesso relativo na detecção automática de fronteiras. O classificador LDA apresentou uma maior porcentagem de acerto na previsão de fronteiras prosódicas. Por isso, os modelos obtidos por meio do LDA foram refinados. O modelo final destinado à detecção automáticas de fronteiras terminais apresenta uma convergência de 80% em relação às fronteiras identificadas pelos segmentadores na amostra de fala. Para as fronteiras não terminais, foram obtidos três modelos de classificação. A soma das quantidades de fronteiras identificadas pelos três modelos corresponde à uma convergência de 98% em relação às fronteiras marcadas pelos segmentadores.
Abstract: The present study presents proposals for automatic prosodic boundary detection models, based on multiple phonetic-acoustic parameters, in order to enable the construction of a computational tool capable of segmenting spontaneous speech into intonation units. A seven-segment sample of spontaneous monological speech was segmented into intonation units by 14 trained annotators. The prosodic boundaries perceived by the annotators were marked as terminal and non-terminal prosodic boundaries. A Praat acoustic analysis software script was developed to extract a series of phonetic-acoustic parameters along the sound signal. Two statistical classifiers, Random Forest (RF) and Linear Discriminant Analysis (LDA), were applied to generate models comprising subsets of phonetic-acoustic parameters, which could function as prosodic boundary predictors. An initial evaluation of the classifiers indicated that both display relative success in automatic boundary detection, although the LDA classifier presented a higher percentage of accuracy in predicting prosodic boundaries. Therefore, the models obtained through the LDA were refined. The final model for the automatic detection of terminal boundaries presents an 80% convergence in relation to the boundaries identified by the annotators for the speech sample. Concerning the non-terminal boundaries, three classification models were obtained. The sum of the number of boundaries identified by the three models corresponds to a 98% convergence in relation to the boundaries marked by the annotators.
Subject: Análise prosódica (Linguística)
Atos de fala (Lingüística)
Linguística de corpus
language: Português
Publisher: Universidade Federal de Minas Gerais
Publisher Initials: UFMG
Rights: Acesso Aberto
URI: http://hdl.handle.net/1843/LETR-AX8HUG
Issue Date: 20-Feb-2018
Appears in Collections:Dissertações de Mestrado

Files in This Item:
File Description SizeFormat 
barbara_versaofinal__corre_oes.pdf5.28 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.