13 de abril de 2026
Machine Learning na Análise de Risco de Crédito
Marcos Otavio de Camargo Bianchi; Gabrielle Maria Romeiro Lombardi
Resumo elaborado pela ferramenta ResumeAI, solução de inteligência artificial desenvolvida pelo Instituto Pecege voltada à síntese e redação.
A palavra crédito possui origem no termo latim creditum, que carrega o significado intrínseco da confiança depositada em algo ou alguém. No ecossistema das finanças contemporâneas, o ato de conceder crédito a um cliente representa o financiamento de uma operação sob a premissa de que o pagamento correspondente será devidamente efetuado em um momento futuro. Conforme estabelecido por Silva (2018), o crédito se consolidou como um dos recursos mais fundamentais e amplamente utilizados na sociedade moderna, permitindo que indivíduos e organizações obtenham e usufruam de uma vasta gama de bens e serviços que, de outra forma, seriam inacessíveis no curto prazo. No entanto, essa dinâmica de confiança mútua enfrenta desafios constantes quando as obrigações financeiras deixam de ser cumpridas dentro dos prazos acordados. A ocorrência da inadimplência gera consequências severas e multifacetadas para o credor, variando desde dificuldades imediatas no fluxo de caixa até cenários críticos de insolvência e falência. O risco de crédito é definido por Borges (2001) como a probabilidade estatística de ocorrência de perdas financeiras decorrentes da inadimplência, contrastando com o cenário idealizado onde a totalidade dos devedores quita integralmente seus compromissos.
Diante da complexidade inerente à avaliação de riscos, a inteligência artificial tem sido adotada de forma crescente por diversos setores econômicos como uma estratégia robusta para mitigar perdas. Dados indicam que aproximadamente 52% das grandes corporações globais, que possuem quadros funcionais superiores a cinco mil colaboradores, já integram soluções de inteligência artificial em suas operações cotidianas (Valor Econômico, 2024). A tendência de expansão é evidente, visto que um terço das organizações que ainda não utilizam tais tecnologias planeja implementá-las em um horizonte de três anos, o que projeta uma adoção por cerca de 81% dos empregadores mundiais até o ano de 2027. No âmbito específico da análise de crédito, os algoritmos de aprendizado de máquina são treinados para processar volumes massivos de dados e prever a probabilidade de inadimplência com base em indicadores financeiros e sociais complexos. Segundo Lima (2023), a concessão de crédito fundamenta-se na avaliação criteriosa de indicadores qualitativos, como o histórico de atrasos em concessões prévias, e quantitativos, como a renda anual declarada. Essas variáveis atuam como preditoras em modelos matemáticos que visam estimar a classificação do cliente entre as categorias de bom ou mau pagador.
A eficácia dessas ferramentas tecnológicas é corroborada por estudos acadêmicos prévios que demonstram a superioridade de modelos avançados sobre métodos estatísticos tradicionais. Pesquisas conduzidas por Amaral Júnior e Távora Júnior (2010) sobre a aplicação de redes neurais na avaliação de risco de crédito empresarial revelaram que tais modelos possuem uma capacidade superior de detecção de padrões ocultos nos dados, resultando em previsões significativamente mais acuradas quando comparadas aos modelos de regressão linear múltipla. De forma complementar, Golbayani et al. (2020) realizaram análises comparativas envolvendo redes neurais, máquinas de vetores de suporte e árvores de decisão para a classificação de crédito corporativo. Os resultados desse estudo apontaram que as redes neurais artificiais e as máquinas de vetores de suporte figuram como os métodos mais bem-sucedidos na tarefa de predição. Esse panorama tecnológico permite que as empresas tomem decisões de concessão de crédito com maior embasamento técnico, identificando riscos precocemente e garantindo maior segurança operacional. O foco central reside na aplicação e comparação de diferentes técnicas de aprendizado de máquina para identificar quais modelos apresentam o desempenho superior na classificação de clientes, utilizando indicadores financeiros e sociais como base para a tomada de decisão.
O processo operacional para a construção dos modelos preditivos iniciou-se com a coleta de dados no repositório de aprendizado de máquina da Universidade da Califórnia Irvine, especificamente o conjunto de dados denominado German Credit Data. Este banco de dados, fornecido originalmente por Hofmann (1994), compreende informações detalhadas de mil clientes bancários, estruturadas em 20 variáveis explicativas que abrangem o histórico financeiro, a situação de emprego, características demográficas e outros fatores socioeconômicos relevantes. Cada registro no conjunto de dados é acompanhado por uma classificação binária que define o cliente como bom ou ruim em termos de risco de crédito. A etapa subsequente consistiu no pré-processamento rigoroso das informações, envolvendo a tradução dos nomes das variáveis para a língua portuguesa e a recodificação de variáveis categóricas representadas por códigos alfanuméricos para seus significados semânticos reais, facilitando a interpretação dos resultados.
A análise exploratória dos dados foi conduzida para compreender a distribuição estatística e as características fundamentais da base. O conjunto de dados apresenta mil observações completas, sem a presença de valores nulos, sendo composto por 21 variáveis explicativas, das quais sete são de natureza quantitativa e 14 são qualitativas, além da variável alvo binária que indica o risco de crédito. Para identificar padrões e associações entre as variáveis, foram aplicadas técnicas de análise de correlação específicas para cada tipo de dado. A matriz de correlação de Pearson foi utilizada para medir a intensidade e o tipo de relação linear entre as variáveis quantitativas. Para as variáveis qualitativas em relação à variável alvo, aplicou-se o teste estatístico do qui-quadrado, enquanto a associação entre variáveis quantitativas e a variável alvo dicotômica foi avaliada por meio do teste de correlação ponto-bisserial.
A modelagem dos algoritmos foi executada utilizando a linguagem de programação Python, aproveitando o ecossistema de bibliotecas especializadas em ciência de dados, como scikit-learn, statsmodels, XGBClassifier e LGBMClassifier. A manipulação e o tratamento dos dados foram realizados com o auxílio das bibliotecas pandas e numpy, enquanto as visualizações gráficas foram geradas via matplotlib e seaborn. O estudo explorou seis algoritmos distintos de aprendizado supervisionado: Regressão Logística, Árvore de Decisão, Random Forest, XGBoost, LightGBM e Redes Neurais. Para garantir a robustez dos modelos e evitar o sobreajuste, utilizou-se a técnica de validação cruzada K-Fold combinada com o Grid Search para a otimização sistemática dos hiperparâmetros. A avaliação de desempenho foi pautada em métricas críticas, incluindo acurácia, especificidade, sensitividade e a área sob a curva característica de operação do receptor, conhecida como AUC. A acurácia reflete a proporção global de acertos, enquanto a especificidade mede a capacidade do modelo em identificar corretamente os verdadeiros negativos. A sensitividade, por sua vez, indica a eficácia na identificação dos casos positivos reais. A métrica AUC é particularmente relevante, pois fornece um indicador único da capacidade discriminatória do modelo; valores mais elevados de AUC sugerem uma maior sensibilidade e especificidade combinadas (Fávero e Belfiore, 2015).
No detalhamento da implementação da Regressão Logística, os dados categóricos foram codificados via one-hot encoding e as variáveis numéricas foram padronizadas através do StandardScaler para mitigar discrepâncias de escala. A modelagem estatística permitiu a análise dos coeficientes estimados e sua significância, definindo o ponto de corte ótimo por meio do índice J de Youden. Para o modelo de Árvore de Decisão, os dados foram divididos em 80% para treinamento e 20% para teste. O ajuste de hiperparâmetros via GridSearchCV testou profundidades máximas de três, cinco, dez e sem limite, além de critérios de impureza como Gini e Entropia e diferentes números mínimos de amostras para divisão de nós e folhas. O modelo de Random Forest seguiu protocolo semelhante, testando entre 100 e 200 estimadores e variando a profundidade das árvores e o número de variáveis consideradas em cada divisão, utilizando a redução de impureza acumulada para determinar a importância das variáveis.
Os modelos de reforço de gradiente, XGBoost e LightGBM, foram otimizados com foco na taxa de aprendizado, variando entre 0,01, 0,1 e 0,2, e na profundidade das árvores, testando valores de três, cinco e sete. Foram avaliadas também as frações de amostras e colunas utilizadas em cada árvore para maximizar a generalização. Por fim, a implementação das Redes Neurais envolveu a padronização rigorosa dos dados e o teste de diferentes arquiteturas de camadas ocultas, incluindo configurações com uma camada de 32 ou 64 neurônios e duas camadas com 64 e 32 neurônios. Foram exploradas funções de ativação como ReLU e Tanh, além de algoritmos de otimização como Adam e SGD, com taxas de regularização variando entre 0,0001 e 0,001. A importância das variáveis nas redes neurais foi estimada pela técnica de Permutation Importance, que mede a queda no desempenho do modelo ao perturbar aleatoriamente os valores de cada preditor.
Os resultados das estatísticas descritivas revelaram que a duração média dos contratos de crédito é de 20,90 meses, com um desvio padrão de 12,06 meses, variando de um mínimo de quatro meses a um máximo de 72 meses. O valor médio do crédito concedido foi de 3.271,26 unidades monetárias, apresentando uma alta dispersão com desvio padrão de 2.822,74 e um valor máximo que atinge 18.424,00. A idade média dos clientes na amostra é de 35,55 anos, abrangendo indivíduos desde os 19 até os 75 anos. Outros indicadores quantitativos mostraram que a taxa média da parcela em relação à renda é de 2,97, o tempo médio de residência atual é de 2,85 anos e o número médio de empréstimos já existentes no banco é de 1,41 por cliente. A análise de correlação de Pearson indicou uma associação positiva significativa entre o valor do crédito e a duração em meses, sugerindo que financiamentos de maior vulto estão intrinsecamente ligados a prazos de pagamento mais extensos. Observou-se também uma correlação negativa entre a taxa da parcela em relação à renda e o valor do crédito, o que indica que tomadores de créditos mais elevados tendem a comprometer uma proporção menor de sua renda mensal, possivelmente devido a uma maior capacidade financeira ou prazos mais dilatados que diluem o valor das parcelas.
O teste de associação do qui-quadrado para variáveis qualitativas demonstrou que a maioria dos atributos possui relação estatisticamente significativa com o risco de crédito ao nível de 5%. Variáveis como o status da conta corrente, histórico de crédito, finalidade, poupança e investimentos apresentaram p-valores extremamente baixos, reforçando sua importância preditiva. Em contrapartida, as variáveis telefone e profissão não apresentaram associação significativa, sugerindo que possuem baixa relevância para a previsão do desfecho de inadimplência neste conjunto de dados específico. No teste de correlação ponto-bisserial, as variáveis duração em meses, valor do crédito, idade e taxa da parcela em relação à renda confirmaram associação significativa com a variável alvo. A ausência de correlação significativa para o número de dependentes e o tempo de residência atual indica que esses fatores pessoais exercem pouca influência direta sobre a probabilidade de inadimplência na amostra estudada.
A comparação do desempenho entre os seis modelos revelou que o Random Forest obteve os melhores resultados globais. Este modelo alcançou uma AUC de 0,84, uma acurácia balanceada de 0,79 e uma especificidade de 0,80. A sensitividade para a classe de mau pagador foi de 0,60, resultando em um F1-score de 0,69. A Regressão Logística apresentou um desempenho surpreendentemente competitivo, com AUC de 0,83 e acurácia balanceada de 0,77, empatando em especificidade com o Random Forest em 0,77. As Redes Neurais também demonstraram alta eficácia, com AUC de 0,82 e acurácia balanceada de 0,78. Os modelos XGBoost e LightGBM apresentaram resultados sólidos, com AUC de 0,78 e 0,77, respectivamente, mas ficaram ligeiramente abaixo dos líderes. O modelo de Árvore de Decisão apresentou o desempenho mais modesto, com AUC de 0,68 e acurácia balanceada de 0,67, evidenciando limitações em capturar a complexidade dos dados de forma isolada.
A superioridade do Random Forest pode ser atribuída à sua natureza de conjunto, que combina múltiplas árvores de decisão para reduzir a variância e melhorar a robustez preditiva. Essa capacidade de identificar padrões não lineares e interações complexas entre variáveis socioeconômicas permite uma distinção mais precisa entre clientes adimplentes e inadimplentes. Os resultados obtidos estão em plena consonância com as conclusões de Amaral Júnior e Távora Júnior (2010) e Golbayani et al. (2020), que ressaltam a eficácia de métodos baseados em ensemble e redes neurais sobre modelos lineares simples. O equilíbrio observado entre especificidade e sensitividade no Random Forest é crucial para a gestão de risco bancário, pois minimiza tanto o custo de oportunidade de negar crédito a bons pagadores quanto o risco financeiro de conceder crédito a clientes inadimplentes.
Apesar do sucesso dos modelos, é necessário reconhecer limitações inerentes ao estudo. O desbalanceamento entre as classes de bons e maus pagadores, embora mitigado pelo uso de métricas balanceadas, poderia ser explorado com técnicas de reamostragem como oversampling ou undersampling em pesquisas futuras. Além disso, a interpretabilidade de modelos como Redes Neurais e Random Forest é inferior à da Regressão Logística, o que pode representar um desafio em ambientes regulatórios que exigem explicações claras para a negação de crédito. A aplicação de métodos de explicabilidade, como SHAP ou LIME, é recomendada para aumentar a transparência das decisões automatizadas. A generalização dos resultados também deve ser testada em bases de dados de diferentes regiões geográficas e períodos temporais para validar a robustez dos modelos em cenários econômicos distintos.
Conclui-se que o objetivo foi atingido, uma vez que a aplicação e comparação das técnicas de aprendizado de máquina permitiram identificar o Random Forest como a solução mais robusta e eficaz para a previsão do risco de inadimplência no conjunto de dados analisado. O modelo demonstrou uma capacidade superior de discriminação entre bons e maus pagadores, superando algoritmos tradicionais e outras técnicas avançadas em métricas fundamentais como AUC e acurácia balanceada. A pesquisa evidenciou que variáveis como o status da conta corrente, a duração do contrato e o valor do crédito são preditores críticos para a determinação do risco. A integração dessas ferramentas tecnológicas nos processos de análise de concessão de crédito oferece às instituições financeiras um suporte à decisão baseado em dados, permitindo uma gestão de risco mais precisa, a redução de perdas por inadimplência e uma maior segurança nas operações de financiamento.
Referências Bibliográficas:
Amaral Júnior, J. B.; Távora Júnior, J. L. 2010. Uma análise do uso de redes neurais para a avaliação do risco de crédito de empresas. Revista do BNDES (34): 133-180.
Borges, L.F.X.; Bergamini Junior, S. 2001. O risco legal na análise de crédito. Revista do BNDES 8(16): 215-259.
Fávero, L. P.; Belfiore, P. 2015. Análise de Dados: Modelos de Regressão com Excel®, Stata® e SPSS®. Grupo GEN. São Paulo, SP, Brasil. Disponível em: <https://app.minhabiblioteca.com.br/reader/books/9788595153226/>. Acesso em: 27 fev. 2025.
Golbayani, P.; Florescu, I.; Chatterjee, R. 2020. A comparative study of forecasting Corporate Credit Ratings using Neural Networks, Support Vector Machines, and Decision Trees. The North American Journal of Economics and Finance 54: 101-251.
Hofmann, H. 1994. Statlog (German Credit Data). UCI Machine Learning Repository. Disponível em: <https://doi.org/10.24432/C5NC77>. Acesso em: 3 mar. 2025.
Lima, F.G. 2023. Análise de Riscos. 3ed. Atlas, Rio de Janeiro, RJ, Brasil. Disponível em: <https://app.minhabiblioteca.com.br/reader/books/9786559775088/>. Acesso em: 26 fev. 2025.
Silva, J.P. 2018. Gestão e Análise de Risco de Crédito. 9ed. Cengage Learning, Porto Alegre, RS, Brasil. Disponível em: <https://app.minhabiblioteca.com.br/reader/books/9788522126750/>. Acesso em: 24 fev. 2025.
Valor Econômico. 2024. Mais de 50% das grandes empresas já estão utilizando IA. Disponível em: https://valor.globo.com/patrocinado/dino/noticia/2024/09/02/mais-de-50-das-grandes-empresas-ja-estao-utilizando-ia.ghtml. Acesso em: 25 fev. 2025.
Resumo executivo oriundo de Trabalho de Conclusão de Curso de Especialização em Data Science e Analytics do MBA USP/Esalq
Saiba mais sobre o curso; clique aqui:




























