Convertendo dados tabulares médicos em imagens para explorar o potencial das CNNs na classificação de Sífilis Congênita
##plugins.themes.bootstrap3.article.main##
Resumo
Contextualização: Este estudo tem como objetivo explorar o potencial das Convolutional Neural Networks (CNNs) no processo de predição utilizando dados tabulares de Sífilis Congênita convertidos em imagens. Na área da saúde, dados não-estruturados, como imagens de raios-x e ressonância magnética, podem ser analisados usando CNNs para auxílio ao diagnóstico médico (CHEN, 2020). De forma similar, dados estruturados, representados como dados tabulares como prontuários médicos, geralmente são analisados com modelos de Machine Learning (ML), como os baseados em árvore (TEIXEIRA, 2023). O uso de CNNs na análise de dados tabulares é limitado, principalmente na área médica, apesar de seu grande sucesso e alto desempenho com imagens (BORISOV, 2023). Porém, é possível aproveitar o potencial das CNNs com dados tabulares convertendo-os em imagens (SARMA, 2019; BAZGIR, 2020; ZHU, 2021). Objetivo: Este estudo busca comparar a eficácia de diferentes conversores de dados tabulares em imagens, avaliando o desempenho de modelos CNN básicos, com apenas uma camada convolucional, treinados nas imagens resultantes para classificação de Sífilis Congênita. Além disso, este trabalho também compara os modelos CNN básicos com um modelo ML tradicional treinado nos dados originais que obteve as maiores métricas no mesmo problema de classificação em um trabalho anterior (TEIXEIRA, 2023). Materiais e Métodos: A metodologia envolveu a conversão de dados tabulares de Sífilis Congênita em imagens para treinar modelos CNN básicos. O desempenho das CNNs foi comparado com o do modelo Adaboost (TEIXEIRA, 2023). Os conversores utilizados foram: DeepInsight (SARMA, 2019). , REpresentation of Features as Images with NEighborhood Dependencies (REFINED) (BAZGIR, 2020), e Image Generator for Tabular Data (IGTD) (ZHU, 2021). Cada conversor converte os dados em imagens em tom de cinza, representando cada atributo em um pixel diferente com intensidade correspondente ao valor normalizado. O DeepInsight, organiza a posição dos atributos na imagem com base em suas coordenadas em um espaço 2D reduzido, podendo gerar imagens com espaços vazios. Já o REFINED, utiliza uma métrica de distância, o Bayesian Multidimensional Scaling (BMDS) e um algoritmo de hill climbing para determinar as posições dos atributos, gerando imagens mais compactas. Por fim, o IGTD utiliza matrizes de distância, e também gera imagens compactas. Resultados promissores foram relatados em aplicações médicas pelos trabalhos nos quais os conversores foram propostos (SARMA, 2019; BAZGIR, 2020; ZHU, 2021). Este estudo utilizou um conjunto de dados anonimizados do Programa Mãe Coruja Pernambucana (PMCP), Os dados incluem informações clínicas e sociodemográficas sobre o pré-natal, desfechos da gestante e de seus filhos, com o teste Venereal Disease Research Laboratory (VDRL) como atributo alvo. O conjunto de dados, disponível publicamente (TEIXEIRA, 2023), abrange o período de 2013 a 2021 em Pernambuco, Brasil. Foi pré-processado por Teixeira (2023) e contém 1.652 registros balanceados e 62 atributos, dividido em 80% para treino e 20% para teste. A arquitetura da CNN básica consistiu em uma camada convolucional com 32 filtros 3x3, stride 1 e ativação Rectified Linear Unit (ReLU); uma camada de pool máximo de tamanho 2x2, e 1 stride; uma camada de vetorização; e uma camada densa com 2 neurônios e função de ativação sigmóide. Zero padding foi utilizado para manter o tamanho das imagens constante. O modelo foi compilado com o otimizador Adam (KINGMA & BA, 2014) durante 200 épocas, com a função de erro de entropia cruzada binária. Resultados: Foram utilizadas as métricas de avaliação: acurácia, recall, precisão, F1-score e especificidade. Os modelos foram treinados e testados 30 vezes para registrar as médias das métricas de avaliação. Os resultados mostraram que o modelo básico DeepInsight-CNN alcançou uma acurácia de 52%, recall de 53%, precisão de 52%, F1-score de 52%, e uma especificidade de 51%. O modelo básico REFINED-CNN, por outro lado, teve uma acurácia de 44%, recall de 65%, precisão de 46%, F1-score de 54% e especificidade de 24%. Finalmente, o modelo básico IGTD-CNN obteve acurácia de 49%, recall de 55%, precisão de 50%, F1-score de 52%, e especificidade de 55%. O modelo Adaboost alcançou uma acurácia de 60%, recall de 68%, precisão de 59%, F1-score de 63%, e especificidade de 52%. Discussão e Conclusão: Apesar de dados tabulares serem comumente usados com modelos de ML, também é possível aplicá-los em CNNs, que têm alcançado altos desempenhos em classificação de imagens (BORISOV et al., 2021). Neste estudo, foram treinadas CNNs com imagens convertidas a partir de dados tabulares de Sífilis Congênita. Experimentos comparativos com diferentes conversores foram realizados, demonstrando a viabilidade dessa abordagem. A conversão de dados tabulares em imagens codifica relações espaciais entre atributos, melhorando o desempenho das CNNs (SHARMA, 2019; BAZGIR, 2020; ZHU, 2021). No entanto, com o conjunto de dados utilizado neste trabalho, a conversão para imagens não aumentou o desempenho das CNNs ao ponto de superar um Adaboost em mais de uma métrica. Apenas o modelo IGTD-CNN alcançou maior especificidade. A representação visual dos dados tabulares pode não ter sido o suficiente para as CNNs captarem adequadamente os padrões nos dados com apenas uma camada convolucional. Além disso, a pequena quantidade e baixa qualidade dos dados impactou negativamente no treinamento dos modelos. Trabalhos futuros podem explorar a utilização de otimização de hiperparâmetros da CNN para melhorar seu desempenho em relação ao algoritmo de ML.
Downloads
Não há dados estatísticos.
##plugins.themes.bootstrap3.article.details##
Seção
Engenharia da Computação e Sistemas