Desenvolvimento de sistema de recomendação para tratamento de pacientes acamados utilizando deep learning.
##plugins.themes.bootstrap3.article.main##
Resumo
Todos os dias várias pessoas são acamadas por diversos fatores, como por exemplo, vítimas de acidentes de trânsito, gestante com complicações durante a gestação, idoso que sofreu acidente doméstico entre outros. Esse processo pode acarretar problemas aos pacientes como desnutrição, problemas físicos pela falta de atividades ou problemas emocionais causados por preocupação sobre seu estado de saúde ou por depender de seus familiares, para solucionar esses problemas os hospitais contam com profissionais para prever esses casos, porém não na quantidade desejada. Com esse trabalho propomos a implementação de um sistema que auxiliará os profissionais da área no tratamento emocional desses pacientes. De forma que o sistema identificará as emoções transmitidas pelos pacientes e de acordo com sua avaliação irá propor ações para melhorar o seu semblante emocional. Após a execução da ação o sistema atualizará seus dados conforme o resultado obtido, por exemplo, se o paciente no primeiro momento apresentava um semblante triste, o sistema sugerirá ações que possam mudar seu semblante, o paciente selecionará o que mais lhe agrada e a executará. Após sua execução o sistema avaliará o resultado obtido e atualizará seus dados conforme o resultado obtido, para que em um próximo momento possa sugerir ações mais eficazes para aquele semblante. A identificação de emoções é um desafio, pois são subjetivas, para desenvolvimento do identificador de emoções utilizaremos o modelo proposto por [2] que propõe uma arquitetura crossmodal de redes neurais convolucionais para identificação de emoções por meio de áudio, face e corpo. A rede aprende novas expressões as categorizando em clusters com uma camada de alto organização. Para sugerir ações utilizaremos os conceitos de sistemas de recomendação, mais precisamente os conceitos de filtragem baseada em conteúdo, onde o sistema leva em conta o conteúdo acessado ou avaliado pelo usuário[1]. As bases de dados que usaremos nesse projeto são a FABO que contém dados Bi-modais entre Face e corpo, a Emotiw que contém dados multimodal de reconhecimento de emoções de corpus e a base SAVEE que contém dados expressões emocionais de Áudio e visuais.
Downloads
Não há dados estatísticos.
##plugins.themes.bootstrap3.article.details##
Edição
Seção
Engenharia da Computação e Sistemas
Referências
[1]BALABANOVIĆ, Marko; SHOHAM, Yoav. Fab: content-based, collaborative
recommendation. Communications of the ACM, v. 40, n. 3, p. 66-72, 1997.
[2]BARROS, Pablo; WERMTER, Stefan. Developing crossmodal expression recognition based on a deep
neural model. Adaptive behavior, v. 24, n. 5, p. 373-396, 2016.
recommendation. Communications of the ACM, v. 40, n. 3, p. 66-72, 1997.
[2]BARROS, Pablo; WERMTER, Stefan. Developing crossmodal expression recognition based on a deep
neural model. Adaptive behavior, v. 24, n. 5, p. 373-396, 2016.