KutralNet: Um Modelo Portátil de Aprendizagem Profunda para o Reconhecimento de Fogo

##plugins.themes.bootstrap3.article.main##

Angel Antonio Ayala Maldonado

Resumo

A maioria dos sistemas de alarme automático de incêndio detecta a presença de fogo através de sensores como térmicos, de fumaça ou de chama. Uma das novas abordagens do problema é o uso de imagens para realizar a detecção (ALVES, SOARES, et al., 2019). A abordagem de imagem é promissora, pois não precisa de sensores específicos e pode ser facilmente embutida em diferentes dispositivos (DENG, 2019). Entretanto, além do alto desempenho, o custo computacional dos métodos de aprendizagem profunda utilizados é um desafio para sua implantação em dispositivos portáteis. Neste trabalho, propomos uma nova arquitetura de aprendizado profundo (LECUN, BENGIO e HINTON, 2015) que requer menos operações de ponto flutuante (flops) para o reconhecimento de fogo. Além disso, propomos uma abordagem portátil para o reconhecimento de fogo e o uso de técnicas modernas, como o Inverted residual block (SANDLER, HOWARD, et al., 2018) e convoluções Depth-wise (CHOLLET, 2017) e Octave (CHEN, FAN, et al., 2019), para reduzir o custo computacional do modelo. Nossa proposta se chama KutralNet, e as versões leves se chamam KutralNet Mobile, KutralNet Octave, e KutralNet Mobile Octave. Todas as versões propostas foram comparadas com modelos de aprendizado profundo de ponta a fim de provar sua eficiência. Os modelos usadoas para isso são FireNet (JADON, OMAMA, et al., 2019), OctFiResNet (AYALA, LIMA, et al., 2019) e ResNet50 (HE, ZHANG, et al., 2015), todos foram usados anteriormente para o reconhecimento de fogo. Para o treinamento, validação e teste dos modelos, dois conjuntos de dados foram utilizados neste trabalho. O primeiro se chama FireNet como modelo (JADON, OMAMA, et al., 2019) e contém subconjuntos de treinamento e teste, com 2425 e 871 imagens, respectivamente. O segundo é o conjunto de dados FiSmo (CAZZOLATO, AVALHAIS, et al., 2017) com um total de 6063 imagens. Além disso, utilizamos um subconjunto contido no FiSmo composto de 1968 imagens, igualmente equilibrado entre o rótulo de fogo e de não-fogo. Uma versão aumentada do FiSmo também é utilizada, adicionando 485 imagens pretas rotuladas como não-fogo, a fim de verificar a resposta dos modelos a este tipo de aumento. Para testar os modelos, usamos testes cruzados de dados para verificar a precisão da generalização com dados não apresentados durante o treinamento ou validação, em conjunto com a métrica da área sob a curva Característica operacional do receptor (Receiver operating characteristic, AUROC). Nosso modelo KutralNet foi capaz de superar os modelos anteriores com 78,26% contra o 75,92% obtido por OctFiResNet, 70,26% por ResNet50 e 64,27% por FireNet, todos são valores médios de precisão de teste entre os três conjuntos de dados. Além disso, KutralNet alcança o segundo melhor valor AUROC com 0,92 contra FireNet com 0,96. Os experimentos mostram que nosso modelo KutralNet Mobile Octave mantém alta precisão de 79,49% em teste e 0.90 de AUROC, enquanto reduz substancialmente o número de parâmetros e flops. O mesmo modelo apresenta 71% menos parâmetros do que o FireNet, enquanto ainda apresenta uma precisão competitiva e desempenho AUROC. Os resultados obtidos são promissores para a implementação do modelo em um dispositivo móvel, considerando o número reduzido de flops e parâmetros adquiridos.

Downloads

Não há dados estatísticos.

##plugins.themes.bootstrap3.article.details##

Seção
Engenharia da Computação e Sistemas