
26 de fevereiro de 2026
Previsão quantitativa da quebra de tijolos refratários utilizando modelos de árvores e redes neurais
João Victor Cristino França; Italo de Oliveira Braga
Resumo elaborado pela ferramenta ResumeAI, solução de inteligência artificial desenvolvida pelo Instituto Pecege voltada à síntese e redação.
O presente estudo objetiva avaliar a adequação de dois modelos de regressão distintos, um baseado em Árvores de Decisão (XgBoosting) e outro em Redes Neurais Artificiais (Deep Learning), para prever a taxa de quebra de materiais refratários com base em parâmetros físicos, químicos e operacionais dos lotes de produção, visando otimizar a prática de superprodução industrial.
Os materiais refratários são componentes essenciais na indústria metalúrgica, sendo empregados na construção de fornos e outros equipamentos que operam em temperaturas extremamente elevadas. Conforme definido por Sarkar (2016), esses materiais, predominantemente cerâmicos e não metálicos, são projetados para suportar temperaturas superiores a 538 °C, mantendo sua integridade estrutural e resistência físico-química. O processo de fabricação de refratários moldados, como os tijolos, inicia-se com a mistura de matérias-primas e ligantes, que é subsequentemente prensada em moldes sob alta pressão. A etapa final consiste na queima em fornos, processo que confere ao produto sua resistência mecânica definitiva. No entanto, essa sequência produtiva é suscetível à ocorrência de defeitos, como trincas, falhas geométricas ou quebras completas, que podem comprometer a qualidade do lote.
A maior parte desses defeitos se origina durante a fase de queima, sendo as causas multifatoriais e complexas. Fatores como a composição química da mistura, a temperatura do forno, e o ciclo de aquecimento e resfriamento podem induzir tensões internas que levam à falha do material. Defeitos comuns incluem trincas de pré-aquecimento, queima incompleta de componentes orgânicos (resultando no fenômeno conhecido como “coração negro”), decomposição de carbonatos e distorções geométricas (SACMI, 2017). Para mitigar o risco de não atender à demanda do cliente devido a essas perdas, as indústrias adotam a prática da superprodução, que consiste em fabricar um número de tijolos superior ao solicitado. Essa estratégia garante que, mesmo com a ocorrência de quebras, a quantidade contratada seja entregue sem a necessidade de iniciar um novo ciclo produtivo, o que implicaria custos adicionais de tempo, energia e uso de maquinário.
Apesar de sua utilidade como salvaguarda, a superprodução gera um desafio logístico e financeiro: o acúmulo de excedentes. Os tijolos sobressalentes frequentemente não são aproveitados, transformando-se em resíduos cujo descarte acarreta custos adicionais para a empresa. A otimização desse processo reside, portanto, na capacidade de prever com precisão a taxa de quebra de cada lote, permitindo que a superprodução seja ajustada para um nível mínimo necessário, apenas o suficiente para cobrir as perdas esperadas. Essa abordagem minimiza o desperdício e os custos associados, ao mesmo tempo que assegura a satisfação do cliente. Nesse cenário, a aplicação de técnicas de Machine Learning de regressão emerge como uma solução promissora para estimar o número de peças defeituosas com base em dados históricos de produção.
O tratamento da base de dados foi realizado utilizando a linguagem de programação Python, com o suporte principal da biblioteca Pandas. O primeiro passo consistiu na limpeza dos dados; linhas com valores ausentes foram removidas. Uma exceção foi feita para o atributo “Temperatura de Tratamento Térmico”; para materiais do tipo “cura”, os valores faltantes foram preenchidos com a temperatura padrão de cura, enquanto para materiais do tipo “queima”, utilizou-se a média de temperatura correspondente àquele tipo de material. As variáveis categóricas, como “Tipo de material”, “Mistura utilizada” e “Geometria do tijolo”, foram transformadas em variáveis numéricas através da técnica de one-hot encoding (criação de variáveis “dummy”), resultando em um conjunto final de 14 variáveis independentes. As colunas de identificação (ID) e data foram descartadas por não possuírem valor preditivo. Após a limpeza, a base de dados foi reduzida para 9.653 registros.
Com a base de dados preparada, procedeu-se à divisão dos dados em conjuntos de treinamento (80% dos registros, totalizando 7.722 amostras) e de teste (20% restantes, com 1.931 amostras). Para o modelo de Deep Learning, que é sensível à escala das variáveis de entrada, foi aplicado um passo adicional de padronização dos dados utilizando o MinMaxScaler da biblioteca scikit-learn, que normaliza os valores para um intervalo entre 0 e 1. O treinamento do modelo XgBoosting foi conduzido com a biblioteca xgboost, enquanto o modelo de Deep Learning foi implementado com as bibliotecas Tensorflow e Keras, utilizando uma arquitetura de Redes Neurais Densas com propagação “Feedforward”.
Para otimizar o desempenho de ambos os modelos, foi empregada a técnica de Grid Search Cross Validation (GridSearchCV) para encontrar a combinação de hiperparâmetros que maximizasse a performance. Para o XgBoosting, a validação cruzada foi configurada com 10 dobras (cv=10), e a métrica de avaliação foi o coeficiente de determinação (R²). Para o modelo de Deep Learning, devido ao seu maior custo computacional, a validação cruzada foi realizada com 5 dobras (cv=5). Adicionalmente, foi realizada uma análise de heterocedasticidade dos resíduos de ambos os modelos, utilizando gráficos de dispersão e o teste estatístico de Breusch-Pagan (Fávero, 2017). Como tentativa de mitigar a heterocedasticidade e melhorar a normalidade da variável resposta, foi testada a aplicação da transformação de Box-Cox (Box & Cox, 1964) sobre a variável “Número de quebra”.
O treinamento do modelo de Deep Learning, por sua vez, foi significativamente mais lento. O Grid Search, que avaliou 1.280 combinações de hiperparâmetros, levou 5,3 horas (19.328 segundos), com um tempo médio de 15 segundos por treinamento. Apesar do maior custo computacional, o modelo de rede neural demonstrou um poder preditivo notável para dados tabulares, alcançando um R² de 0.917 no treinamento e 0.913 no teste, um valor praticamente idêntico ao do XgBoosting. Este resultado corrobora observações na literatura sobre o potencial de redes neurais para prever propriedades de materiais cerâmicos (Scott et al., 2007; Nogay et al., 2021). O gráfico de dispersão dos valores reais versus previstos para o modelo de Deep Learning foi muito semelhante ao do XgBoosting, mostrando uma boa aderência dos pontos à reta de identidade (Y=X), mas também sugerindo a presença de heterocedasticidade.
A análise de heterocedasticidade confirmou as suspeitas iniciais. Os gráficos de dispersão dos resíduos versus os valores previstos mostraram um padrão de funil para ambos os modelos; a variância dos erros aumentava à medida que o número de quebras previsto crescia. Essa observação visual foi confirmada estatisticamente pelo teste de Breusch-Pagan, que resultou em um p-valor extremamente próximo de zero para ambos os modelos, levando à rejeição da hipótese nula de homocedasticidade. A presença de heterocedasticidade, conforme discutido por Fávero (2017), pode indicar a omissão de variáveis explicativas relevantes ou um erro na especificação da forma funcional do modelo.
Para investigar se uma transformação na variável resposta poderia corrigir esse problema, aplicou-se a transformação de Box-Cox com um parâmetro lambda (λ) de 0,36, otimizado para maximizar a aderência à normalidade. Os modelos foram então retreinados com a variável alvo transformada. No entanto, os resultados mostraram que a transformação não suprimiu a heterocedasticidade, pois o teste de Breusch-Pagan continuou a rejeitar a hipótese nula para os modelos transformados. Além disso, o ganho no poder preditivo foi marginal: o R² do XgBoosting aumentou de 0.913 para 0.919, e o do Deep Learning de 0.913 para 0.918. Embora a literatura mostre casos em que a transformação de Box-Cox melhora o desempenho de modelos de Machine Learning (Blum & Elgendi, 2022; Riahi et al., 2023), no presente estudo, o benefício não justificou o aumento na complexidade do modelo. Concluiu-se que a solução para a heterocedasticidade provavelmente reside na inclusão de novas variáveis preditoras, como dados de sensores de umidade ou pressão das prensas.
A comparação final entre os dois modelos levou em consideração quatro critérios principais: poder preditivo, tempo de treinamento, interpretabilidade e robustez. Em termos de poder preditivo, ambos os modelos foram equivalentes, com um R² de 0.913 no conjunto de teste. No entanto, o modelo XgBoosting demonstrou uma superioridade expressiva nos outros critérios. Seu tempo de treinamento foi aproximadamente 50 vezes mais rápido que o do modelo de Deep Learning, o que permite uma exploração muito mais ampla e ágil do espaço de hiperparâmetros.
A maior vantagem do XgBoosting, contudo, reside em sua interpretabilidade. Ao contrário das redes neurais, frequentemente descritas como “caixas-pretas”, os modelos baseados em árvores permitem a extração direta da importância de cada variável e a análise de sua influência sobre a previsão. Essa capacidade de fornecer insights sobre as causas da quebra de refratários é de imenso valor prático para a indústria, pois aponta caminhos para a otimização do processo produtivo, como um controle mais rigoroso da temperatura de tratamento térmico ou ajustes na composição química das misturas mais críticas.
Em suma, ambos os modelos de Machine Learning treinados demonstraram alta capacidade para prever a quebra de materiais refratários, com coeficientes de determinação (R²) de aproximadamente 0.913. A análise dos resíduos revelou a presença de heterocedasticidade em ambos os casos, confirmada pelo teste de Breusch-Pagan, sugerindo que a inclusão de variáveis adicionais poderia aprimorar ainda mais os modelos. A tentativa de mitigar esse efeito com a transformação de Box-Cox na variável resposta não produziu melhorias significativas.
Considerando o desempenho preditivo similar, o tempo de treinamento drasticamente inferior e a maior explicabilidade, o modelo XgBoosting foi selecionado como a solução mais adequada e robusta para o problema em questão. Para trabalhos futuros, recomenda-se a incorporação de mais variáveis ao modelo, como dados de sensores de equipamentos (pressão, umidade) e a aplicação de técnicas de engenharia de features para criar novos atributos. Adicionalmente, uma busca mais exaustiva por hiperparâmetros no modelo de Deep Learning poderia revelar um potencial preditivo ainda maior. Conclui-se que o objetivo foi atingido: demonstrou-se a adequação de modelos de regressão para prever a quebra de refratários, identificando o XgBoosting como a arquitetura mais apropriada para o problema.
Referências:
Blum L, Elgendi M e Menon C (2022) Impact of Box-Cox Transformation on Machine-Learning Algorithms. Front. Artif. Intell. 5:877569. doi: 10.3389/frai.2022.877569
Box, G. E. P., e D. R. Cox. (1964). An Analysis of Transformations. Journal of the Royal Statistical Society. Series B (Methodological) 26, no. 2: 211–52. http://www. jstor. org/stable/2984418.
Fávero, Luiz Paulo. (2017). Manual de análise de dados. 1. ed. Rio de Janeiro: Elsevier.
Grinsztajn, Léo, Edouard Oyallon e Gaël Varoquaux. (2022). Why Do Tree-Based Models Still Outperform Deeplearning on Tabular Data? arXiv. org, July 18, 2022. https://arxiv. org/abs/2207.08815.
Nogay, Hidir Selcuk, Tahir Cetin Akinci e Musa Yilmaz. (2021). Detection of Invisible Cracks in Ceramic Materials Using by Pre-Trained Deep Convolutional Neural Network. Neural Computing and Applications 34, no. 2: 1423–32. https://doi. org/10.1007/s00521-021-06652-w.
Omar, Intisar, Muhammad Khan e Andrew Starr. (2023). Comparative Analysis of Machine Learning Models for Predicting Crack Propagation under Coupled Load and Temperature. Applied Sciences 13, no. 12: 7212. https://doi. org/10.3390/app13127212.
Riahi, V., Hassanzadeh, H., Khanna, S. et al. (2023). Improving preoperative prediction of surgery duration. BMC Health Serv Res 23, 1343. https://doi. org/10.1186/s12913-023-10264-6.
Sarkar, R. (2016). Refractory Technology: Fundamentals and Applications. 1st ed. CRC Press. https://doi. org/10.1201/9781315368054.
Scott, D. J., P. V. Coveney, J. A. Kilner, J. C. H. Rossiny e N. Mc N. Alford. (2007). Prediction of the Functional Properties of Ceramic Materials from Composition Using Artificial Neural Networks. Journal of the European Ceramic Society 27, no. 16: 4425–35. https://doi. org/10.1016/j. jeurceramsoc.2007.02.212.
Shwartz-Ziv, Ravid & Armon, Amitai. (2021). Tabular Data: Deeplearning is Not All You Need. 10.48550/arXiv.2106.03253.
Técnicos do centro experimental da SACMI – IMOLA. (2017). Defeitos de Revestimentos Cerâmicos como uma Conseqüência de Regulagem Errada do forno. Cerâmica Industrial, v. 2, n. 1-2, 11 jan. 2017.
Xu, Jun & Zhu, Xiemeng & Liu, Qiang & Du, Shiyu & Zhang, Yiming. (2024). Unlocking the strength: The predictions of silicon carbide fracture toughness revealed through data-driven approach. Materials Research Express. 11. 10.1088/2053-1591/ad2577.
Resumo executivo oriundo de Trabalho de Conclusão de Curso de Especialização em Data Science e Analytics do MBA USP/Esalq
Saiba mais sobre o curso; clique aqui:





































