29 de abril de 2026
Análise Preditiva na Gestão de Cronogramas de Software
Isis Karine d’Ângelo Foureaux; Luciano Bérgamo
Resumo elaborado pela ferramenta ResumeAI, solução de inteligência artificial desenvolvida pelo Instituto Pecege voltada à síntese e redação.
O desenvolvimento de sistemas computacionais e de “software” consolidou-se como um pilar fundamental da economia contemporânea, permeando a operação de negócios em praticamente todos os setores produtivos. No entanto, a gestão eficaz desses empreendimentos, particularmente no que tange ao cumprimento rigoroso de cronogramas, permanece como um dos desafios mais persistentes e complexos na engenharia de “software” (Pressman e Maxim, 2019). A definição operacional de uma gestão de cronogramas bem-sucedida transcende o simples cumprimento de datas finais; ela abrange um conjunto de práticas coordenadas que buscam elevar a previsibilidade das estimativas e mitigar a variabilidade inerente aos diferentes tipos de projetos e tarefas. A ocorrência de atrasos não representa apenas um desvio técnico, mas um gatilho para o aumento descontrolado de custos, a insatisfação generalizada de clientes e, em cenários críticos, o colapso total de iniciativas estratégicas (Suresh e Sivakumar, 2019; PMI, 2021).
Este panorama de instabilidade é corroborado por décadas de evidências empíricas documentadas em relatórios setoriais de larga escala. O CHAOS Report, publicado pelo The Standish Group, destaca historicamente as elevadas taxas de projetos que sofrem com estouros de prazo e orçamento. Em dados recentes, observa-se que apenas 31% dos projetos de tecnologia da informação são concluídos com sucesso pleno, enquanto uma parcela alarmante de 19% resulta em fracasso absoluto. Tradicionalmente, o planejamento e a estimativa de prazos têm se apoiado em modelos clássicos e na intuição derivada da experiência de gestores, conforme as diretrizes estabelecidas pelo Guia PMBOK (PMI, 2021). Contudo, tais abordagens frequentemente demonstram limitações severas ao lidar com a complexidade não linear e as incertezas profundas que caracterizam o ciclo de vida de desenvolvimento de sistemas modernos.
Nesse contexto, a análise preditiva emerge como uma alternativa tecnológica e metodológica promissora. Ao utilizar grandes volumes de dados históricos e técnicas estatísticas avançadas, essa abordagem permite a formulação de previsões fundamentadas sobre eventos futuros (Siegel, 2017). A aplicação sistemática da análise preditiva possui o potencial de transmutar o gerenciamento de cronogramas de um estado puramente reativo para um modelo proativo (Pospieszny, 2018). Tal mudança de paradigma possibilita que as equipes de engenharia antecipem gargalos operacionais e otimizem a alocação de recursos humanos e financeiros de maneira estratégica. A relevância desta investigação fundamenta-se no impacto direto que a precisão das estimativas exerce sobre a viabilidade econômica e o sucesso técnico dos projetos (Effect…, 2024).
Embora o potencial teórico da análise preditiva seja amplamente reconhecido, sua implementação prática enfrenta obstáculos consideráveis, especialmente no que diz respeito à qualidade e integridade dos dados históricos disponíveis. Existe uma lacuna notável na literatura técnica quanto a evidências empíricas que demonstrem como algoritmos de “machine learning” podem superar as métricas das abordagens convencionais em cenários de uso real. Portanto, a questão central que norteia esta análise reside em compreender como a análise preditiva pode otimizar a gestão de cronogramas de forma mais eficaz que os métodos tradicionais, identificando os fatores determinantes para a duração das tarefas e os principais desafios para sua operacionalização no cotidiano das organizações de tecnologia.
A fundamentação metodológica deste estudo caracteriza-se por uma natureza aplicada, adotando uma abordagem estritamente quantitativa para garantir o rigor científico necessário. O delineamento da pesquisa possui caráter descritivo e explicativo, buscando não apenas caracterizar o comportamento dos dados de projetos de “software”, mas também identificar e isolar os fatores que exercem influência direta sobre a duração das atividades. O percurso metodológico alinhou-se aos princípios da pesquisa experimental, envolvendo a seleção criteriosa de variáveis, a definição de mecanismos de controle e a observação sistemática dos efeitos produzidos sobre o objeto de estudo. O experimento central consistiu na implementação, treinamento e avaliação de um algoritmo de “machine learning” projetado para prever a duração da resolução de demandas técnicas.
O processo de obtenção de informações baseou-se no levantamento de dados secundários a partir de um repositório público de vasta escala. Utilizou-se o conjunto de dados disponibilizado por Montgomery et al. (2022), que compreende mais de 2,3 milhões de registros de “issues” extraídos de repositórios do sistema Jira pertencentes a projetos de código aberto. Para assegurar a robustez estatística do modelo, a análise concentrou-se nos dez projetos que apresentavam o maior volume de dados, adotando como critério de inclusão a existência de um mínimo de 4.000 registros por projeto. Após a aplicação de filtros de relevância e integridade, a base final de trabalho foi consolidada com 63.987 registros, cobrindo um período temporal extenso, compreendido entre os anos de 2005 e 2022.
A execução técnica do tratamento de dados ocorreu em múltiplas etapas sequenciais e rigorosas. Inicialmente, os dados brutos foram migrados de um ambiente de armazenamento não estruturado em MongoDB para um banco de dados relacional PostgreSQL, visando facilitar consultas complexas e garantir a consistência referencial. O pré-processamento subsequente envolveu a remoção de colunas que apresentavam mais de 50% de valores nulos, além da exclusão de registros que não possuíam uma data de vencimento ou resolução definida, uma vez que esta informação constituía a variável alvo da previsão. Ao término desta fase de saneamento, foram selecionadas oito colunas fundamentais para o treinamento do modelo: prioridade, status, tipo de demanda, nome do projeto, data de resolução, data de criação, data de atualização e o prazo previsto.
O desenvolvimento da análise preditiva foi realizado em ambiente Jupyter Notebook, utilizando a linguagem de programação Python e suas bibliotecas especializadas em ciência de dados. Para a avaliação da acurácia das previsões, selecionou-se a métrica do Erro Médio Absoluto, conhecida pela sigla MAE. A escolha desta métrica específica justifica-se por sua alta interpretabilidade e pela robustez diante de valores extremos, os chamados “outliers”. Diferentemente de outras métricas estatísticas, o MAE expressa o erro na mesma unidade de medida da variável alvo, que neste caso são dias corridos, facilitando a compreensão direta dos resultados por parte de gestores e tomadores de decisão. É importante ressaltar que esta pesquisa cumpriu os requisitos éticos vigentes, enquadrando-se nas hipóteses de dispensa de submissão a comitês de ética por utilizar exclusivamente dados de acesso público e agregados, sem possibilidade de identificação individual de sujeitos.
A análise dos resultados obtidos permite posicionar o modelo preditivo não apenas como um calculador de datas, mas como um instrumento estratégico de diagnóstico e mapeamento de riscos. Ao afastar-se de uma avaliação estrita de acurácia pontual, o foco da investigação desloca-se para a identificação das fontes de incerteza no portfólio de projetos. O valor real da abordagem reside na capacidade de quantificar a imprevisibilidade presente no ambiente de desenvolvimento. Esta perspectiva viabiliza uma gestão baseada em evidências, alinhada às práticas modernas de gerenciamento de riscos que utilizam o histórico para identificar padrões de eventos que precedem atrasos críticos.
A métrica principal de desempenho revelou um MAE geral de 70,47 dias. Embora este número, se analisado isoladamente, possa sugerir uma imprecisão elevada, uma investigação mais profunda da distribuição dos erros expõe uma realidade dual. A análise da distribuição dos erros absolutos demonstra que o corpo central dos dados está concentrado próximo ao eixo zero, indicando que a mediana dos erros de previsão é significativamente baixa e que a vasta maioria das tarefas rotineiras é prevista com alta acurácia. No entanto, o modelo também revela uma cauda longa e numerosa de “outliers”, com erros que ultrapassam 800 dias em casos específicos. Esta evidência visual comprova que, embora o processo de previsão seja preciso para demandas comuns, ele enfrenta dificuldades severas em um subconjunto particular de tarefas altamente imprevisíveis.
A literatura especializada corrobora a tese de que a busca por estimativas pontuais de alta precisão em ambientes de desenvolvimento de “software” é frequentemente um objetivo inalcançável devido à complexidade intrínseca e ao dinamismo do setor (Costa et al., 2023). A gestão de projetos contemporânea deve, portanto, abraçar a incerteza como uma variável inerente ao processo. Estudos anteriores propõem que dados históricos de demandas sejam utilizados não para prever datas com exatidão absoluta, mas para sinalizar riscos de atraso de forma antecipada (Khomh et al., 2011). Nesse sentido, o MAE de 70,47 dias atua como uma métrica quantitativa da incerteza média inerente ao conjunto de projetos analisados, medindo o nível de variabilidade nos processos de desenvolvimento subjacentes.
A métrica de erro deixa de ser um mero atestado de performance algorítmica para se transformar em um indicador de estabilidade processual. Um erro elevado sugere a presença de processos instáveis, requisitos voláteis ou alta complexidade técnica que o modelo consegue capturar e quantificar. Esta reinterpretação fundamenta o uso do MAE como um indicador chave de desempenho para a estabilidade do desenvolvimento. Uma organização pode monitorar a tendência desta métrica ao longo do tempo; um valor decrescente indicaria melhoria na maturidade dos processos e na qualidade dos dados, enquanto um aumento súbito funcionaria como um alerta precoce de volatilidade e risco crescente, demandando intervenção imediata da liderança.
A análise detalhada por projeto revelou uma acentuada heterogeneidade, expondo as limitações de modelos preditivos generalistas. Projetos como SPARK e IGNITE demonstraram alta previsibilidade, com valores de MAE situados em 15,78 e 18,67 dias, respectivamente. Em contrapartida, iniciativas como HIVE e FLINK apresentaram erros que escalaram para 192,73 e 256,20 dias. Essa disparidade dramática indica que um modelo único, treinado com dados de múltiplos projetos, encontra dificuldades severas em se adaptar a dinâmicas e complexidades distintas. Este fenômeno é um tema central na pesquisa sobre estimativa de esforço, onde revisões sistemáticas frequentemente concluem que modelos treinados com dados de uma única empresa ou projeto tendem a superar modelos generalistas devido à maior homogeneidade dos dados (Kamei et al., 2012).
A eficácia de um modelo preditivo depende da similaridade entre a base de treinamento e o projeto alvo. Ao caracterizar os projetos de alta e baixa previsibilidade, observou-se que aqueles com maior erro (HIVE e FLINK) são geralmente mais antigos e possuem uma proporção drasticamente superior de trabalho reativo, como a correção de “bugs”, em comparação com o trabalho planejado de novas funcionalidades. Esta observação transforma a variação da métrica de erro em uma investigação empírica sobre a natureza do trabalho realizado. A implicação prática desta descoberta é a possibilidade de utilizar o modelo para o “profiling” e a segmentação do portfólio, atribuindo pontuações de risco diferenciadas para cada iniciativa.
Projetos sinalizados com alta incerteza devem ser candidatos a uma gestão de risco mais intensiva, com a alocação de maiores margens de contingência e o desenvolvimento de modelos de estimativa locais e específicos. Por outro lado, projetos de baixa incerteza podem ser gerenciados com metodologias mais enxutas e maior confiança nas estimativas originais. A análise da acurácia por tipo de demanda reforça essa hierarquia de previsibilidade. O modelo atinge seu grau máximo de precisão ao avaliar tarefas de escopo bem definido, como “Epics” e “New Features”, com erros médios de 5,50 e 15,17 dias. No domínio do trabalho reativo, a categoria “Bug” exibiu o maior desafio, culminando em um MAE de 97,40 dias.
Este resultado sugere que a principal dificuldade reside em quantificar a incerteza inerente à correção de defeitos. Tal descoberta é congruente com a teoria da manutenção de “software”, que distingue a manutenção perfectiva da corretiva. Enquanto a adição de funcionalidades pode ser planejada com base em requisitos, a correção de um erro é uma atividade de investigação complexa, onde o esforço principal não está na alteração do código em si, mas no diagnóstico da causa raiz, que pode estar oculta em sistemas legados. Pesquisas indicam que mudanças corretivas frequentemente aumentam a complexidade do código devido a soluções de contorno, o que explica a maior incerteza associada à sua duração (Ghozzi et al., 2019).
Dessa forma, o modelo preditivo quantifica, na prática, o custo da incerteza associado à dívida técnica. Um alto volume de correções em um projeto não apenas consome tempo de desenvolvimento, mas introduz um nível significativamente maior de imprevisibilidade no cronograma global. O MAE elevado para “bugs” representa um custo de risco tangível, fornecendo uma justificativa quantitativa para investimentos em qualidade de “software” e refatoração. Gestores podem utilizar esses dados para argumentar que alocar tempo para testes automatizados e revisões de código não é um custo que atrasa entregas, mas um investimento estratégico na estabilidade e previsibilidade do projeto a longo prazo.
Outro achado relevante diz respeito ao paradoxo da prioridade. A análise revelou que tarefas classificadas com a maior urgência possível apresentam os maiores erros de previsão, com um MAE de 164,73 dias, valor quase três vezes superior ao de tarefas de prioridade alta. Esta descoberta contradiz a expectativa lógica de que itens críticos seriam mais bem controlados. No entanto, a literatura sobre gestão ágil sugere que etiquetas de prioridade máxima são frequentemente utilizadas como um “botão de pânico” para crises e interrupções inesperadas. Essas tarefas surgem sem aviso, possuem escopos mal definidos no momento da criação e exigem respostas imediatas que interrompem o fluxo de trabalho planejado.
A alta incerteza na duração dessas tarefas é uma característica intrínseca de sua natureza emergencial. O modelo de “machine learning” atua, portanto, como um detector de anomalias de processo, revelando disfunções no uso dos mecanismos de priorização. Ao atribuir um erro altíssimo a itens de urgência máxima, o sistema sinaliza que o processo de trabalho para esses itens é fundamentalmente caótico. Gestores podem utilizar esse “insight” para auditar o processo de priorização e implementar alertas automáticos sempre que o volume de tarefas críticas ultrapassar um limiar de segurança, permitindo intervenções focadas na causa raiz das emergências em vez de apenas reagir a cada crise individual.
Para operacionalizar esses achados, propõe-se uma arquitetura de sistema que integre a coleta de dados brutos de repositórios, o processamento em banco de dados relacional e a modelagem contínua em ambientes de experimentação. As previsões e métricas geradas devem ser consumidas por ferramentas de visualização que apresentem informações acionáveis. Um painel de controle estratégico poderia exibir o índice de previsibilidade de cada projeto, utilizando códigos de cores para identificar rapidamente iniciativas que exigem atenção. Ao detalhar um projeto de alto risco, o gestor teria acesso ao perfil de incerteza por tipo de tarefa e alertas de saúde do processo baseados na volatilidade das estimativas.
É fundamental reconhecer que este estudo apresenta limitações relacionadas à qualidade dos dados de origem e ao escopo restrito de variáveis utilizadas. Falhas isoladas no preenchimento de registros e a ausência de metadados sobre a experiência dos desenvolvedores ou a complexidade ciclomática do código podem influenciar os resultados. No entanto, as anomalias encontradas indicam a necessidade de uma análise mais profunda da consistência dos processos que geram esses dados. Trabalhos futuros devem focar na especialização de modelos para projetos de alta complexidade e na incorporação de técnicas de processamento de linguagem natural para extrair informações semânticas das descrições das tarefas (Althebyan et al., 2024; Nunes et al., 2024).
A evolução natural desta abordagem seria a transição de modelos de regressão simples para modelos de classificação de risco, que poderiam prever categorias de atraso em vez de valores numéricos exatos. Tal perspectiva é consistente com o objetivo diagnóstico da análise preditiva. Além disso, a integração de métricas de código-fonte poderia fornecer indicadores diretos da dificuldade técnica de cada demanda, aumentando o poder explicativo do sistema. A análise preditiva na gestão de projetos de “software” consolida-se, assim, como um mapa da incerteza, cujo valor primordial não reside na eliminação total das dúvidas sobre o futuro, mas na capacidade de apontar suas origens e capacitar os gestores a navegar pela complexidade com maior clareza.
Conclui-se que o objetivo foi atingido ao demonstrar que a análise preditiva, embora apresente limitações para estimativas pontuais exatas em tarefas reativas e de alta prioridade, constitui uma ferramenta de diagnóstico superior aos métodos tradicionais. A pesquisa evidenciou que a métrica de erro atua como um indicador de estabilidade processual, permitindo a identificação de projetos de alto risco e a quantificação do impacto da dívida técnica na previsibilidade dos cronogramas. A identificação do paradoxo da prioridade e da heterogeneidade entre projetos reforça a necessidade de abordagens de gestão diferenciadas e baseadas em dados. O modelo desenvolvido provou ser eficaz em direcionar a atenção gerencial para as causas fundamentais dos desvios, fundamentando uma tomada de decisão mais consciente e proativa no ambiente de engenharia de “software”.
Referências Bibliográficas:
ALTHEBYAN, Q. et al. “The Rise of Artificial Intelligence in Project Management: A Systematic Literature Review of Current Opportunities, Enablers, and Barriers.” Systems, v. 12, n. 7, p. 1130, 2024.
COSTA, B. G. et al. “Applying Machine Learning to Estimate the Effort and Duration of Individual Tasks in Software Projects.” IEEE Access, v. 11, p. 90384-90400, 2023.
GHOZZI, W. et al. “Predicting delays in software projects using networked data: An empirical study.” In: INTERNATIONAL CONFERENCE ON EVALUATION OF NOVEL APPROACHES TO SOFTWARE ENGINEERING (ENASE), 2019, Heraklion, p. 262-273.
KAMEI, F. et al. “A large-scale empirical study of Just-in-Time quality assurance.” IEEE Transactions on Software Engineering, v. 39, n. 6, p. 757-773, 2012.
KHOMH, F. et al. “BDTEX: A GQM-based Bayesian approach for the detection of antipatterns.” The Journal of Systems and Software, v. 84, n. 4, p. 559-572, abr. 2011. Disponível em: https://doi.org/10.1016/j.jss.2010.11.921. Acesso em: 15 abr. 2025.
MONTGOMERY, L.; LÜDERS, C.; MAALEJ, W. “An Alternative Issue Tracking Dataset of Public Jira Repositories”. In: IEEE/ACM 19TH INTERNATIONAL CONFERENCE ON MINING SOFTWARE REPOSITORIES, 2022, Pittsburgh. Anais… p. 73-77.
NUNES, V.; MOURA, H.; PEREIRA, R. “Leveraging Large Language Models for Predicting Cost and Duration in Software Engineering Projects”. arXiv preprint arXiv:2409.09617, 2024. Disponível em: https://arxiv.org/html/2409.09617v1. Acesso em:13 abr. 2025
OSPIESZNY, P. Application of Data Mining Techniques in Project Management – an Overview. Roczniki Kolegium Analiz Ekonomicznych, Varsóvia, v. 43, p. 137-148, 2018. Disponível em: https://bazekon.uek.krakow.pl/zeszyt/31414-application-of-data-mining-techniques-in-project-management-an-overview.html. Acesso em: 15 abr. 2025.
PRESSMAN, R.; MAXIM, B. Engenharia de Software: Uma Abordagem Profissional. 9. ed. Porto Alegre: AMGH, 2019.
PROJECT MANAGEMENT INSTITUTE (PMI). Um Guia do Conhecimento em Gerenciamento de Projetos (Guia PMBOK®). 7. ed. Newtown Square: Project Management Institute, 2021.
SIEGEL, E. Predictive Analytics: The Power to Predict Who Will Click, Buy, Lie, or Die. Revised and Updated. Hoboken, NJ: Wiley, 2017.
SURESH, D.; SIVAKUMAR, A. “Effect of schedule management plan in project management worth using structural equation modeling.” Anais da Academia Brasileira de Ciências, Rio de Janeiro, v. 96, n. 1, e20230117, 2024. Disponível em: https://doi.org/10.1590/0001-3765202420230117. Acesso em: 15 abr. 2025.
SURESH, D.; SIVAKUMAR, A. “Impact of Schedule Management Plan on Project Management Effectiveness.” International Journal of Advanced Engineering and Management, v. 4, n. 2, p. 60-65, 2019. Disponível em: https://doi.org/10.35444/ijaem.2019.402.003. Acesso em: 15 abr. 2025.
Resumo executivo oriundo de Trabalho de Conclusão de Curso da Especialização em Engenharia de Software do MBA USP/Esalq
Para saber mais sobre o curso, clique aqui e acesse a plataforma MBX Academy




























