Insights sobre Técnicas de Autoencoders Explicáveis para Detecção de Anomalias em Diferentes Domínios de Dados

##plugins.themes.bootstrap3.article.main##

Messias Rafael Batista
Roberta Andrade de Araújo Fagundes

Resumo

A detecção de anomalias (AD) emerge como uma área crítica em diversos domínios, essencial para identificar comportamentos irregulares ou inesperados em grandes e complexos conjuntos de dados (RUFF, 2021). Com o avanço do aprendizado profundo, modelos como os Autoencoders (AEs) têm demonstrado capacidade na detecção de anomalias, especialmente em dados complexos como imagens e texto, dada sua habilidade de aprender representações eficientes dos dados normais. No entanto, a complexidade inerente a muitas arquiteturas de aprendizado profundo resulta em modelos frequentemente opacos, operando como "caixas-pretas" cujas decisões são difíceis de interpretar ou justificar (Ribeiro et. al., 2022). Essa falta de explicabilidade representa um obstáculo significativo para a adoção generalizada em aplicações sensíveis, como saúde, segurança cibernética e manufatura inteligente, na qual a confiança do usuário e a capacidade de diagnosticar a causa-raiz de uma anomalia são primordiais (RUFF, 2021). A necessidade de entender por que uma anomalia é detectada, e não apenas se ela existe, tem impulsionado a pesquisa na intersecção de AD e XAI (Explainable Artificial Intelligence). Este trabalho tem como objetivo principal identificar as metodologias empregadas na construção de modelos de Autoencoders e nas técnicas de XAI associadas para a detecção de anomalias em uma variedade de domínios de dados. A análise abrangerá arquiteturas de AEs, explorando como estas são combinadas com abordagens de XAI (HOANG, 2022). A revisão de escopo (CORDEIRO; SOARES, 2019) resultante visa identificar tendências emergentes, lacunas de pesquisa e as melhores práticas na construção de sistemas de detecção de anomalias que não são apenas precisos, mas também transparentes capazes de suportar a tomada de decisões humanas em cenários críticos. Objetivo: A pesquisa tem como objetivo contribuir para o conhecimento da área ao identificar tendências emergentes sobre as diversas técnicas de Autoencoders aplicadas na detecção de anomalias, bem como as estratégias de XAI para a sua explicabilidade. Assim, a revisão de escopo resultou em um guia claro sobre as técnicas, métodos e resultados dessas abordagens em variados domínios e tipos de dados. Metodologia: um processo de revisão de escopo foi executado para alcançar o objetivo. Primeiramente, foi realizada uma seleção e revisão das fontes para identificar artigos que abordam a intersecção de detecção de anomalias e explicabilidade. Em seguida, os estudos relevantes foram categorizados sistematicamente com base em seus domínios de aplicação e nos tipos de dados que processam. Uma análise detalhada e um mapeamento foram conduzidos para cada artigo selecionado, extraindo informações sobre como o problema de anomalia é definido e resolvido. Finalmente, os resultados seriam comparados e sintetizados para criar um mapeamento abrangente que destaca as características, os insights e o desempenho das abordagens investigadas, permitindo identificar tendências e lacunas de pesquisa. Resultados: Os resultados obtidos na construção do trabalho demonstram que as metodologias baseadas em Autoencoders, frequentemente combinadas com outras técnicas de aprendizado profundo (como GANs, LSTMs e VAEs), alcançam altas performances na detecção de anomalias em diversos domínios, com métricas como precisão, recall, F1-score e AUC frequentemente superiores ou comparáveis às abordagens de última geração. A integração de técnicas de Inteligência Artificial Explicável (XAI), como SHAP, contra-factuais e análise de resíduos, mostrou-se crucial para aprimorar a interpretabilidade dos modelos, fornecendo insights valiosos sobre a razão pela qual uma anomalia foi detectada, permitindo a identificação de características contribuintes ou causas-raiz e aumentando a confiança dos especialistas no sistema (DEMIRBAGA, 2024). Adicionalmente, em vários casos, observou-se maior robustez, adaptabilidade a mudanças nos dados (via transfer learning ou aprendizado federado) e eficiência computacional, tornando essas abordagens mais práticas para aplicações industriais e do mundo real, como manutenção preditiva, segurança cibernética e monitoramento de saúde.

Downloads

Não há dados estatísticos.

##plugins.themes.bootstrap3.article.details##

Seção
Engenharia da Computação e Sistemas