Desenvolvimento de Modelos de Previsão de Vendas Utilizando de Dados do Varejo Físico
##plugins.themes.bootstrap3.article.main##
Resumo
Para o varejo, um forte indicador do estado da empresa é a quantidade de vendas, portanto uma ferramenta de previsão das vendas pode ser determinante para o sucesso de uma organização. A projeção de vendas, por antecipar alguns resultados, permite que os gestores definam estratégias e metas visando a recuperação ou crescimento da empresa através dos resultados obtidos, conseguindo lidar com as despesas e otimizando os lucros (MARQUES, 2018). Com o auxílio de mecanismos integrado com os principais e-commerce, é possível coletar métricas do comportamento do usuário e de vendas em tempo real e com a granularidade que for mais pertinente para a análise, porém quando se trata de lojas físicas é mais difícil mensurar essas métricas, no qual, um dos motivos que prejudica a análise é a ausência de dados históricos de qualidade (SIQUEIRA, 2018). O objetivo principal do trabalho é avaliar modelos de machine learning na predição de vendas no varejo físico buscando o modelo com melhor desempenho nesse cenário. Para alcançar esse propósito foi realizada a integração de diversos conjuntos de dados com as informações de vendas e o comportamento do público alvo que são provenientes de sistemas isolados da organização. A metodologia empregada nessa pesquisa foi a CRISP-DM (Cross Industry Standard Process for Data Mining). Segundo Wirth et al. (2000) esta metodologia traduz problemas de negócios em tarefas de mineração de dados independentemente da área de aplicação e da tecnologia usada, o que constitui a geração de conhecimento. O modelo referência da metodologia fornece uma visão geral do ciclo de vida de um projeto de mineração de dados com as fases de Entendimento do Negócio, Entendimento dos Dados, Preparação dos Dados, Modelagem, Avaliação e Implementação. Foram utilizadas as bases de dados de vendas, fluxo de pessoas e registros do wifi disponibilizadas pelo grupo LVF Empreendimentos que é gestora de um shopping center no interior de Pernambuco. Após procedimentos de integração, transformação, remoção de outliers e categorização de atributos foi concebido um conjunto de dados com 3.097 registros e 148 atributos que contém informações como dia da semana, hora, quantidade de pessoas que entraram, tempo de conexão médio e para cada loja a quantidade de tickets e ticket médio. Como atributo alvo foi escolhido o total de vendas da próxima hora, ou seja, uma categorização em baixo, médio e alto do total de vendas da hora seguinte. Analisando as três classes criadas obtivemos uma distribuição desbalanceadas com 36,7%, 53,6% e 9,7% correspondendo as classes baixo, médio e alto respectivamente. Os modelos de machine learning foram treinados com 70% do conjunto de dados, e os 30% restantes separados para teste. A biblioteca de código aberto PyCaret foi utilizada para realizar a comparação de algoritmos de classificação, pois permite gerar modelos iniciais e prototipar aplicações de machine learning de forma rápida. Os modelos foram avaliados segundo a métrica F1-score que é boa métrica para usar quando se busca atingir um equilíbrio entre recall e precisão, especialmente quando há desequilíbrio entre as classes (NABIPOUR, 2020). No treinamento, 13 algoritmos de classificação foram comparados utilizando a técnica de validação cruzada. Buscando os melhores modelos, foram selecionados os cinco algoritmos que obtiveram maior pontuação na métrica F1-score para ajustar seus hiperparâmetros buscando uma configuração que melhor adapta-se aos dados. Como resultado dos experimentos, o Gradient Boosting (GB) foi o modelo que teve valor mais alto no F1-score de 84,71%, seguido pelo Light Gradient Boosting (LIGHTGB) com 84,58%, Logistic Regression (LR) com 82,46%, Extra Trees Classifier (ET) com 79,44% e Random Forest (RF) com 79,36%. Foi realizada uma validação estatística com o teste de Wilcoxon para identificar os modelos com distribuições similares selecionando apenas os que tiveram maior pontuação. Os modelos GB, LIGHTGB e LR apresentaram distribuições similares, portanto o modelo GB foi selecionado. Os modelos ET e RF também apresentaram similaridade em suas distribuições, assim selecionando apenas o ET. Por fim entre os modelos com distribuições diferentes, foi selecionado o GB por ter maior pontuação. Com a matriz de confusão do modelo GB na base de teste, notamos que na classe Baixo e Médio tivemos bons resultados com a taxa de acerto de 90% e 86% respectivamente, porém na classe Alto tivemos uma taxa de acerto de apenas 40% onde possivelmente é uma influência do desbalanceamento do conjunto de dados tendo em vista o pequeno número de registros pertencentes à classe alto. Este trabalho alcançou os objetivos do projeto visto que foi criado um conjunto de dados do varejo físico fornecidos por um shopping center, o qual, foi utilizado para comparar modelos de aprendizado de máquina a fim de classificar o total de vendas futuras na próxima hora em Baixo, Médio ou Alto. Dentre os algoritmos avaliados o que se destacou foi o GB. Com as projeções das vendas criadas com o modelo, os gestores poderão, por exemplo, realizar ações de otimização na logística de colaboradores e estoque, criar ações de impulsionamento das vendas através de campanhas de marketing ou elaborar sistemas de metas para a equipe. Como trabalhos futuros, será realizada a segmentação do conjunto de dados por lojas do mesmo setor, o aumento da previsão utilizando o atributo alvo com duas e três horas a frente, o aumento da granularidade da previsão de hora para dia e uso de técnicas de seleção de atributos visando diminuir a dimensionalidade do conjunto de dados.
Downloads
Não há dados estatísticos.
##plugins.themes.bootstrap3.article.details##
Edição
Seção
Engenharia da Computação e Sistemas