Human activity recognition based on wearable sensors using multiscale DCNN ensemble

dc.creatorJéssica Sena de Souza
dc.date.accessioned2020-08-13T20:57:32Z
dc.date.accessioned2025-09-08T22:55:38Z
dc.date.available2020-08-13T20:57:32Z
dc.date.issued2018-10-18
dc.description.abstractReconhecimento de atividades humanas baseado em sensores, fornece valiosa informação para muitas áreas, como médica, militar e de segurança. Recentemente, os dispositivos vestíveis ganharam espaço como uma fonte relevante de dados sensoriais devido à facilidade da captura, ao grande número de pessoas que usam esses dispositivos e ao conforto e conveniência do dispositivo. Além disso, o grande número de sensores presentes nesses dispositivos fornece complementariedade, pois a informação dada por cada sensor é diferente. No entanto, existem dois problemas: a heterogeneidade entre os dados de vários sensores e a natureza temporal dos dados do sensor. Nós acreditamos que o uso de múltiplos sensores fornecem informações valiosas se lidarmos com os dados da maneira correta. Para lidar com o primeiro problema, propomos processar cada sensor separadamente, aprendendo as features e realizando a classificação da atividade antes da fusão com os outros sensores. Para explorar o segundo problema, usamos uma abordagem para extrair padrões em várias escalas temporais dos dados. Isso é conveniente, pois os dados já são uma sequência temporal e as múltiplas escalas extraídas fornecem informações significativas sobre as atividades realizadas pelos usuários. Nós extraímos várias escalas temporais usando um agrupamento de redes neurais de convolução profunda (DCNN). Neste agrupamento usamos um kernel convolucional com uma altura diferente para cada DCNN. Considerando que o número de linhas no dado cru do sensor reflete os dados capturados ao longo do tempo, cada altura do kernel reflete uma escala temporal da qual podemos extrair padrões. Desta maneira, nossa abordagem é capaz de extrair desde padrões de movimento simples, como uma torção de pulso ao pegar uma colher até movimentos complexos, como o caminhar humano. Essa abordagem multimodal e multi-temporal supera os trabalhos anteriores em sete importantes conjuntos de dados usando dois protocolos diferentes de avaliação. Também demonstramos que o uso do agrupamento de kernels de DCNNs proposto melhora o reconhecimento de atividades humanas baseado em sensor em outra abordagem multi-kernel, a amplamente utilizada Inception Network.
dc.description.sponsorshipCNPq - Conselho Nacional de Desenvolvimento Científico e Tecnológico
dc.description.sponsorshipFAPEMIG - Fundação de Amparo à Pesquisa do Estado de Minas Gerais
dc.description.sponsorshipCAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
dc.identifier.urihttps://hdl.handle.net/1843/33973
dc.languageeng
dc.publisherUniversidade Federal de Minas Gerais
dc.rightsAcesso Aberto
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/pt/
dc.subject.otherHuman activity recognition
dc.subject.otherMultimodal data
dc.subject.otherCNN ensemble
dc.subject.otherMultiscale temporal data
dc.subject.otherComputação - Teses
dc.subject.other.Aprendizado de máquina
dc.subject.otherReconhecimento de atividades humanas
dc.subject.other, Sensores de dispositivos móveis
dc.subject.otherSensores vestíveis.
dc.titleHuman activity recognition based on wearable sensors using multiscale DCNN ensemble
dc.title.alternativeReconhecimento de atividades humanas baseado em sensores vestíveis usando fusão de múltiplas escalas temporais através de redes convolucionais profundas
dc.typeDissertação de mestrado
local.contributor.advisor1William Robson Schwartz
local.contributor.advisor1Latteshttp://lattes.cnpq.br/0704592200063682
local.contributor.referee1Marcos André Gonçalves
local.contributor.referee1Leonardo Antônio Borges Torres
local.creator.Latteshttp://lattes.cnpq.br/7436809926096292
local.description.resumoSensor-based Human Activity Recognition (sensor-based HAR) provides valuable knowledge to many areas, such as medical, military and security. Recently, wearable devices have gained space as a relevant source of data due to the facility of data capture, the massive number of people who use these devices and the comfort and convenience of the device. In addition, the large number of sensors present in these devices provides complementary data as each sensor provides a different information. However, there are two issues: heterogeneity between the data from multiple sensors and the temporal nature of the sensor data. We believe that mitigating these issues might provide valuable information if we handle the data in the correct way. To handle the first issue, we propose to processes each sensor separately, learning the features of each sensor and performing the classification before fusing with the other sensors. To exploit the second issue, we use an approach to extract patterns in multiple temporal scales of the data. This is convenient since the data are already a temporal sequence and the multiple scales extracted provide meaningful information regarding the activities performed by the users. We extract multiple temporal scales using an ensemble of Deep Convolution Neural Networks (DCNN). In this ensemble, we use a convolutional kernel with a different height for each DCNN. Considering that the number of rows in the sensor data reflects the data captured over time, each kernel height reflects a temporal scale from which we can extract patterns. Consequently, our approach is able to extract both simple movement patterns such as a wrist twist when picking up a spoon and complex movements such as the human gait. This multimodal and multi-temporal approach outperforms previous state-of-the-art works in seven important datasets using two different protocols. We also demonstrate that the use of our proposed set of kernels improves sensor-based HAR in another multi-kernel approach, the widely employed inception network.
local.publisher.countryBrasil
local.publisher.departmentICX - DEPARTAMENTO DE CIÊNCIA DA COMPUTAÇÃO
local.publisher.initialsUFMG
local.publisher.programPrograma de Pós-Graduação em Ciência da Computação

Arquivos

Pacote original

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
Jessica_Dissertacao.pdf
Tamanho:
10.37 MB
Formato:
Adobe Portable Document Format

Licença do pacote

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
license.txt
Tamanho:
2.07 KB
Formato:
Plain Text
Descrição: