09 de abril de 2026
Aprendizado de Máquina na Previsão de Lead Time no E-commerce Brasileiro
Giovane Massena Petruccelli; Luis Fernando Pacheco Pereira
Resumo elaborado pela ferramenta ResumeAI, solução de inteligência artificial desenvolvida pelo Instituto Pecege voltada à síntese e redação.
A previsão do lead time de materiais constitui um pilar fundamental para a manutenção da eficiência operacional em cadeias de suprimentos contemporâneas, gerando impactos diretos na rentabilidade e na competitividade das organizações. Quando essa estimativa é realizada com precisão, observa-se uma melhora substancial no planejamento da produção, no gerenciamento estratégico de estoques, na previsibilidade financeira e na alocação otimizada da força de trabalho. Uma modelagem preditiva eficaz permite que as empresas mantenham níveis de estoque condizentes com a demanda real, reduzindo desperdícios e evitando tanto a ruptura de estoque quanto o excesso de capital imobilizado em materiais (Ifraza et al., 2023). No entanto, a determinação exata dos prazos de entrega em uma cadeia de suprimentos configura um desafio de alta complexidade, dada a multiplicidade de variáveis intervenientes que influenciam o fluxo logístico em seus diversos estágios. Atrasos podem ocorrer de forma assistemática em etapas que abrangem desde o design e a aquisição de matérias-primas até o armazenamento, a venda e o transporte final ao consumidor (Mallidis et al., 2024). Além desses fatores internos, elementos externos como o tipo de carga, a perecibilidade de produtos e a periculosidade de materiais impõem restrições que ampliam a variabilidade dos prazos.
Essas incertezas intrínsecas ao processo logístico tornam a previsão dinâmica do lead time um problema central para a sobrevivência de setores altamente competitivos, com destaque para o comércio eletrônico brasileiro. Nesse segmento, a rapidez e a confiabilidade das entregas são determinantes para a satisfação e a fidelização do cliente final. Fatores disruptivos, como congestionamentos em portos e rodovias, morosidade na emissão de documentos fiscais, eventos climáticos catastróficos ou ataques cibernéticos a sistemas de gestão, podem comprometer severamente os prazos acordados. Diante desse cenário, abordagens tradicionais baseadas em médias históricas simples ou cálculos estáticos de chão de fábrica mostram-se insuficientes, pois falham em capturar a volatilidade do ambiente operacional. Consequentemente, o uso de analytics preditivo e algoritmos de aprendizado de máquina tem se expandido como uma alternativa robusta para mitigar riscos e conferir resiliência às cadeias de suprimentos (Mallidis et al., 2024). A transição de métodos convencionais para modelos baseados em dados permite considerar um conjunto vasto de parâmetros, indo além do tempo total de trabalho e do nível de inventário em processo para incluir variáveis contextuais e comportamentais (Pfeiffer et al., 2016).
Estudos recentes corroboram a superioridade de modelos avançados na tarefa de prever o tempo de fluxo com maior acurácia. Pesquisas indicam que o algoritmo random forest tende a superar métodos de regressão linear e árvores de decisão simples ao processar variáveis obtidas por simulação de eventos discretos (Pfeiffer et al., 2016). Outras investigações aplicaram árvores de regressão em conjuntos de dados simulados para isolar os atributos com maior poder preditivo, enquanto abordagens focadas em redes neurais artificiais e classificação bayesiana demonstraram eficácia na redução da dimensionalidade de grandes bases de dados, otimizando o tempo de processamento sem perda significativa de precisão (Meidan et al., 2011). A literatura também explora o uso de máquinas de vetores de suporte e modelos de séries temporais para previsões em tempo real, evidenciando que a escolha do algoritmo depende diretamente da natureza dos dados e da complexidade da tarefa industrial (Alenezi et al., 2008). Em contextos de produção siderúrgica ou aeroespacial, redes bayesianas e modelos de aprendizado profundo têm sido empregados para estimar tempos de produção mesmo sob condições de dados parciais ou ruidosos (Mori et al., 2015).
A fundamentação teórica que sustenta a aplicação de inteligência artificial na logística baseia-se na capacidade desses modelos em identificar padrões não lineares em grandes volumes de informação. No caso específico do lead time, a variável resposta frequentemente apresenta distribuições assimétricas e heterocedásticas, o que inviabiliza o uso de estatística paramétrica clássica. O objetivo central desta análise reside na avaliação comparativa de diferentes arquiteturas de aprendizado de máquina, buscando identificar qual abordagem lida de forma mais eficiente com a incerteza inerente ao e-commerce brasileiro. A justificativa para tal investigação encontra-se na necessidade de ferramentas que suportem a tomada de decisão em ambientes de alta frequência, onde cada minuto de atraso reflete em custos logísticos adicionais e degradação da imagem da marca perante o mercado.
A metodologia empregada para a condução deste estudo estruturou-se em quatro etapas sequenciais: análise exploratória, tratamento de dados, modelagem preditiva e avaliação de desempenho. O ponto de partida foi a consolidação de uma base de dados proveniente de uma operação real de comércio eletrônico no Brasil, abrangendo o intervalo temporal entre os anos de 2016 e 2018. A construção do conjunto analítico exigiu a integração de múltiplas tabelas relacionais contendo registros de pedidos, especificações de itens, perfis de clientes, modalidades de pagamento e características técnicas dos produtos. Após a unificação por meio de chaves primárias e estrangeiras, obteve-se um volume inicial de 89.316 registros históricos. Para garantir a integridade da modelagem, aplicou-se um filtro rigoroso para selecionar apenas pedidos com status de entrega concluída, resultando em uma amostra final de 87.428 observações válidas.
O processo de engenharia de atributos foi fundamental para enriquecer o poder explicativo dos modelos. Foram derivadas variáveis específicas, como o lead time total, calculado pela diferença entre o carimbo de tempo da entrega e o da compra. O tempo de processamento foi isolado através do intervalo entre a aprovação do pedido e a compra inicial. Adicionalmente, calculou-se o atraso de entrega como a discrepância entre a data real de recebimento e a data prevista informada ao cliente. Variáveis físicas também foram sintetizadas, como a densidade do produto, obtida pela razão entre o peso e o volume cúbico (altura multiplicada por largura e comprimento), e a proporção do frete, que representa o peso financeiro do transporte sobre o valor total da transação. Essas transformações permitiram capturar dimensões logísticas e operacionais que não estavam explicitamente presentes nos dados brutos.
O tratamento de variáveis categóricas seguiu critérios de cardinalidade e relevância estatística. Para atributos com poucas categorias, como o tipo de pagamento, utilizou-se a técnica de one-hot encoding, que converte cada categoria em uma coluna binária, evitando a imposição de uma ordem de grandeza artificial entre os valores. Para colunas de alta cardinalidade, como a categoria do produto, o estado e a cidade do cliente, aplicou-se o CatBoostEncoder. Este método de codificação supervisionada utiliza a média da variável alvo condicionada à categoria, incorporando técnicas de regularização e ordenação aleatória para prevenir o vazamento de dados e o sobreajuste. Essa abordagem é particularmente robusta para modelos baseados em árvores, pois preserva a carga informativa das categorias sem inflar excessivamente a dimensionalidade do espaço de atributos.
Quatro algoritmos distintos foram selecionados para a fase de modelagem: random forest, XGBoost, LightGBM e LSTM. O random forest opera sob o princípio de bagging, construindo múltiplas árvores de decisão de forma independente a partir de subconjuntos aleatórios de dados e variáveis. A previsão final resulta da média das previsões individuais, o que reduz a variância e melhora a capacidade de generalização (Kara et al., 2021). Em contrapartida, o XGBoost e o LightGBM baseiam-se na técnica de boosting, onde as árvores são construídas sequencialmente para corrigir os erros das iterações anteriores. O XGBoost é reconhecido por sua eficiência em problemas de regressão complexos e por seus mecanismos internos de regularização. O LightGBM diferencia-se pelo crescimento das árvores de forma folha a folha, o que proporciona maior velocidade computacional e melhor tratamento de variáveis categóricas nativas (Sani et al., 2023). Por fim, a rede neural Long Short-Term Memory (LSTM) foi incluída por sua arquitetura especializada em capturar dependências temporais de longo prazo através de células de memória e portões de controle, sendo ideal para dados sequenciais onde o histórico imediato influencia o resultado futuro (Jyothi et al., 2024).
A divisão da base de dados respeitou a cronologia dos eventos para simular um cenário real de previsão. O conjunto de treinamento foi composto por 76.548 registros (outubro de 2016 a junho de 2018). O conjunto de validação contou com 4.985 registros (junho de 2018 a julho de 2018), sendo utilizado para o ajuste de hiperparâmetros. A avaliação final ocorreu no conjunto de teste, com 5.880 registros (julho de 2018 a agosto de 2018), garantindo que os modelos fossem testados em dados nunca vistos. O desempenho foi mensurado por meio de quatro métricas: erro absoluto médio (MAE), raiz do erro quadrático médio (RMSE), erro percentual absoluto médio (MAPE) e coeficiente de determinação (R²). O uso integrado dessas medidas permitiu analisar tanto a magnitude média dos erros quanto o impacto de desvios extremos e a proporção da variância explicada por cada modelo.
A análise exploratória dos dados revelou que a variável alvo apresenta uma distribuição acentuadamente assimétrica e superdispersa, com uma média de 11,86 dias e uma variância elevada de 85,51 dias. Esse comportamento sugere uma distribuição do tipo Poisson-Gama, caracterizada por uma cauda longa à direita, o que indica a presença frequente de entregas com prazos muito superiores à média. Do ponto de vista comercial, uma análise de Pareto sobre o lucro por categoria evidenciou uma concentração extrema: apenas três categorias foram responsáveis por 80% da margem de lucro, com a categoria de brinquedos respondendo isoladamente por aproximadamente 75% dos ganhos. As categorias de produtos de beleza e cama, mesa e banho contribuíram com cerca de 2,5% cada. Essa disparidade reforça a importância de modelos que consigam diferenciar o comportamento logístico entre diferentes classes de produtos. Além disso, a distribuição da demanda por item seguiu o padrão de cauda longa típico de marketplaces, onde poucos SKUs concentram a maioria das vendas, enquanto uma vasta quantidade de itens possui baixíssima rotatividade, aumentando a dificuldade de previsão para produtos de nicho.
Os resultados obtidos no conjunto de teste demonstraram que a rede neural LSTM alcançou o melhor desempenho em termos de erros absolutos, apresentando um MAE de 2,79 e um RMSE de 4,01. Esses valores foram os menores entre todos os modelos testados, sugerindo que a arquitetura de aprendizado profundo foi capaz de capturar nuances temporais e padrões sequenciais que escaparam aos modelos baseados em árvores. No entanto, o coeficiente de determinação (R²) da LSTM foi de apenas 0,09, o que indica um baixo poder explicativo global. Isso significa que, embora o modelo erre menos em termos de dias absolutos, ele ainda não consegue mapear a maior parte da variabilidade intrínseca ao processo de entrega. O algoritmo random forest apresentou um desempenho intermediário e mais estável, com MAE de 2,95, RMSE de 4,15 e R² de 0,07. Esse resultado coloca o random forest como uma alternativa equilibrada, apresentando uma robustez maior contra a heterogeneidade dos dados em comparação aos modelos de boosting.
Os modelos baseados em gradiente boosting, XGBoost e LightGBM, enfrentaram dificuldades significativas de generalização no conjunto de teste. O LightGBM obteve um MAE de 3,18 e um RMSE de 4,54, mas seu R² foi negativo (-0,11). O cenário foi ainda mais crítico para o XGBoost, que registrou MAE de 3,33, RMSE de 4,71 e R² de -0,19. Valores negativos de R² indicam que a média simples dos dados de treinamento seria um previsor melhor do que o próprio modelo no conjunto de teste. Essa degradação de performance sugere a ocorrência de sobreajuste durante a fase de treinamento, onde os modelos de boosting capturaram ruídos específicos do passado que não se repetiram no período de teste. Curiosamente, no conjunto de validação, esses mesmos modelos apresentaram resultados promissores, com o LightGBM atingindo um R² de 0,22 e o XGBoost de 0,19. A discrepância entre validação e teste aponta para uma mudança na distribuição dos dados ou para uma sensibilidade excessiva dos algoritmos de boosting a variações amostrais sazonais.
A interpretação da importância das variáveis via valores SHAP trouxe luz aos fatores que mais influenciam a previsão do lead time. Em todos os modelos, as variáveis geográficas e temporais exerceram o maior impacto. O estado e a cidade do cliente (customer_state e customer_city) apareceram consistentemente no topo da hierarquia de importância, o que é coerente com a realidade logística de um país de dimensões continentais como o Brasil, onde a infraestrutura de transporte varia drasticamente entre regiões. O tempo estimado de entrega informado no momento da compra e variáveis como o mês e o ano do pedido também se mostraram determinantes. No modelo random forest, observou-se que fatores sazonais e a localização geográfica explicam a maior parte da variância, enquanto atributos relacionados às características físicas do produto, como densidade e peso, tiveram uma contribuição marginal. O LightGBM, por sua vez, mostrou-se mais sensível à densidade do item e à categoria do produto, sugerindo que sua arquitetura consegue identificar como o porte e a tipologia da mercadoria afetam o manuseio e o transporte.
A discussão dos resultados permite inferir que a complexidade da previsão do lead time no e-commerce brasileiro não decorre apenas da escolha do algoritmo, mas da qualidade e da abrangência dos dados disponíveis. A superioridade da LSTM em métricas de erro absoluto confirma que existe uma componente temporal sequencial relevante, mas o baixo R² sinaliza que variáveis críticas podem estar ausentes da modelagem. Fatores macroeconômicos, condições climáticas em tempo real, greves no setor de transportes e variações na capacidade operacional das transportadoras são elementos que, se integrados, poderiam elevar o patamar de precisão. A fragilidade demonstrada pelos modelos de boosting ressalta a necessidade de estratégias de regularização mais agressivas e de uma engenharia de atributos que minimize a dependência de padrões históricos voláteis. O fato de o random forest ter mantido um desempenho positivo, ainda que modesto, reforça sua utilidade como modelo de base para operações que buscam estabilidade em detrimento de ajustes finos e arriscados.
As limitações deste estudo residem na natureza estática da base de dados e na ausência de informações sobre a última milha (last mile) de forma detalhada. Pesquisas futuras devem explorar a integração de dados externos, como índices de tráfego e pluviosidade, além de testar modelos híbridos que combinem a capacidade de extração de características das redes neurais com a robustez das florestas aleatórias. A aplicação de técnicas de ensemble, que combinam as previsões de múltiplos modelos, também surge como um caminho promissor para estabilizar o coeficiente de determinação e reduzir os erros residuais. A análise via SHAP demonstrou ser uma ferramenta indispensável para conferir transparência aos modelos de “caixa preta”, permitindo que gestores logísticos compreendam os gatilhos que levam a previsões de prazos mais longos e ajam preventivamente na mitigação de atrasos regionais.
Conclui-se que o objetivo foi atingido, uma vez que a análise comparativa identificou a rede neural LSTM como o modelo de menor erro absoluto para a previsão de lead time, embora o algoritmo random forest tenha demonstrado maior estabilidade e capacidade de generalização frente à volatilidade dos dados de e-commerce. A pesquisa evidenciou que variáveis geográficas e temporais são os principais determinantes dos prazos de entrega, superando características físicas dos produtos. Os resultados indicam que a alta variabilidade e a assimetria dos dados logísticos brasileiros impõem limites severos ao poder explicativo dos modelos atuais, demandando o enriquecimento das bases de dados com variáveis contextuais externas e a adoção de técnicas avançadas de regularização para evitar o sobreajuste em modelos de boosting.
Referências Bibliográficas:
Alenezi, A.; Moses, S.A.; Trafalis, T.B. 2008. Real-time prediction of order flowtimes using support vector regression. Computers & Operations Research 35(11): 3489–3503. doi:10.1016/j.cor.2007.01.026.
İfraz, M.; Aktepe, A.; Ersöz, S.; Çetinyokuş, T. 2023. Demand forecasting of spare parts with regression and machine learning methods: Application in a bus fleet.
Jyothi, K.; Raksha, H.L.; Raksha, S.; Rakshitha, G.U.; Sowmyashree, C.B. 2024. Food delivery time prediction using CNN-LSTM. Departamento de ISE, JNN College of Engineering.
Kara, S.E.; Samli, R. 2021. Comparative analysis of machine learning algorithms in WEKA for cost estimation of software projects. European Journal of Science and Technology 23.
Mallidis, I.; Vlachos, D.; Katsigiannis, F. 2024. Dynamic lead time prediction in supply chains: Challenges and machine learning approaches. International Journal of Logistics Management.
Meidan, Y.; Lerner, B.; Rabinowitz, G.; Hassoun, M. 2011. Cycle-time key factor identification and prediction in semiconductor manufacturing using machine learning and data mining. IEEE Transactions on Semiconductor Manufacturing 24(2): 237–248. doi:10.1109/TSM.2011.2118775.
Mori, J.; Mahalec, V. 2015. Planning and scheduling of steel plates production. Part I: Estimation of production times via hybrid Bayesian networks for large domain of discrete variables. Computers & Chemical Engineering 79: 113–134. doi:10.1016/j.compchemeng.2015.02.005.
Pfeiffer, A.; Gyulai, D.; Kádár, B.; Monostori, L. 2016. Manufacturing lead time estimation with the combination of simulation and statistical learning methods.
Sani, S.; Xia, H.; Milisavljevic-Syed, J.; Salonitis, K. 2023. Supply Chain 4.0: A Machine Learning-Based Bayesian-Optimized LightGBM Model for Predicting Supply Chain Risk. Machines, 11(9): 888.
Resumo executivo oriundo de Trabalho de Conclusão de Curso de Especialização em Data Science e Analytics do MBA USP/Esalq
Saiba mais sobre o curso; clique aqui:




























