Imagem Detecção e quantificação linear de falhas de plantio em cana-de-açúcar com deep learning

06 de fevereiro de 2026

Detecção e quantificação linear de falhas de plantio em cana-de-açúcar com deep learning

Hugo de Jesus Gomes; Lilian Cristina da Silveira

Resumo elaborado pela ferramenta ResumeAI, solução de inteligência artificial desenvolvida pelo Instituto Pecege voltada à síntese e redação.

Este estudo tem como objetivo desenvolver e avaliar um fluxo de processamento automatizado para identificação e quantificação de falhas em linhas de plantio de cana-de-açúcar a partir de ortomosaico RGB, capaz de segmentar cana, falha e solo com a arquitetura DeepLab v3+, extrair linhas por meio de morfologia matemática e extração de eixos, detectar e ajustar segmentos por meio das transformadas de Hough/PPHT e do algoritmo RANSAC para, finalmente, converter o resultado em métricas agronômicas lineares (metros e percentual de falha por sulco) via Ground Sampling Distance (GSD), reduzindo a latência de diagnóstico e apoiando a priorização do replantio no nível de talhão. A agricultura de precisão, impulsionada pela digitalização, utiliza tecnologias de sensoriamento e análise de dados para otimizar a produtividade (Zhang et al., 2002). A integração de sensoriamento remoto por Veículos Aéreos Não Tripulados (VANTs) com visão computacional permite o monitoramento de lavouras em alta resolução espacial e temporal (Mulla, 2013).

No setor sucroenergético brasileiro, a maximização da produtividade é um imperativo econômico. Um dos principais desafios são as falhas de plantio, espaços sem brotação que impactam o número de colmos por metro linear, um componente do rendimento final em Toneladas de Cana por Hectare (TCH) e Toneladas de Açúcar por Hectare (TAH). A correção dessas áreas por replantio, embora custosa, apresenta retorno significativo, com ganhos potenciais de 10 a 16 toneladas por hectare na safra subsequente, justificando o investimento (Penatti et al., 2011). A identificação e quantificação precisa dessas falhas é, portanto, crucial para a tomada de decisão.

O método tradicional de avaliação de falhas, descrito por Stolf (1986), consiste em uma inspeção visual por amostragem em campo; avaliadores medem manualmente os espaços sem brotação, considerando como falha os vãos superiores a 50 centímetros. O resultado é um percentual de falha para a área amostrada. Embora consolidado, este método é manual, demorado, subjetivo e de cobertura espacial limitada. Sua natureza amostral dificulta a geração de mapas georreferenciados detalhados por linha, o que pode atrasar a janela agronômica ideal para o replantio (Embrapa, 2022).

Técnicas de aprendizado profundo (deep learning) aplicadas a imagens de sensoriamento remoto superam essas limitações. Modelos de segmentação semântica podem classificar cada pixel em categorias como cana, solo e falha, gerando mapas de alta precisão (Goodfellow et al., 2016). Contudo, a implementação enfrenta desafios como a necessidade de grandes conjuntos de dados rotulados, o desbalanceamento entre classes e a exigência de eficiência computacional. Estratégias como aprendizagem por transferência (transfer learning) e aprendizagem ativa (active learning) são fundamentais para mitigar esses problemas, permitindo treinar modelos robustos com menos dados e otimizar a anotação (Settles, 2012; Kamilaris e Prenafeta-Boldú, 2018). Este trabalho busca preencher a lacuna entre a detecção de falhas em nível de pixel e a entrega de um indicador agronômico acionável: a quantificação linear de falhas por sulco.

Esta pesquisa é de natureza aplicada e abordagem quantitativa, baseada na análise estatística de métricas de desempenho do modelo (como Intersection over Union – IoU) e na quantificação de dados numéricos. O delineamento metodológico é a implementação de um algoritmo de machine learning, fundamentado em pesquisa bibliográfica sobre visão computacional e sensoriamento remoto. A premissa é que a análise de dados brutos gera informação, e o conhecimento acionável surge quando essa informação subsidia uma decisão estratégica (Favero e Belfiore, 2024).

A fonte de dados primária foi um ortomosaico RGB de um talhão de cana-de-açúcar (ciclo de cana-soca). Um ortomosaico é um produto fotogramétrico com escala uniforme, permitindo medições precisas de distâncias e áreas (Colomina e Molina, 2014). Os dados foram fornecidos em formato TIFF, que preserva dados raster e metadados geoespaciais como o Ground Sampling Distance (GSD) (Adobe Systems Incorporated, 1992). Para o processamento, o ortomosaico foi subdividido em 162 recortes (patches) de 512×512 pixels.

O fluxo de processamento inicia-se com a segmentação semântica, para a qual a arquitetura DeepLab v3+ foi escolhida por seu desempenho superior em testes preliminares em comparação com a U-Net. Proposta por Chen et al. (2018), a DeepLab v3+ utiliza convoluções dilatadas (atrous convolutions) para expandir o campo receptivo sem reduzir a resolução espacial (Yu e Koltun, 2016). A arquitetura incorpora o módulo Atrous Spatial Pyramid Pooling (ASPP), que captura informações de contexto em múltiplas escalas, e um decodificador que refina os contornos da segmentação (Chen et al., 2017). O modelo utilizou uma rede ResNet pré-treinada na base ImageNet como extratora de características (backbone), uma estratégia de aprendizagem por transferência que melhora a generalização com dados limitados (He et al., 2016).

Para otimizar a rotulagem, foi implementado um ciclo de aprendizagem ativa. Após um treinamento inicial, o modelo fez predições em imagens não rotuladas. A incerteza de cada predição foi calculada com base na entropia de Shannon. Imagens com maior entropia média, indicando maior indecisão do modelo, foram selecionadas para anotação humana (Settles, 2012). Esses novos dados foram incorporados ao conjunto de treinamento para reajuste do modelo. Este ciclo iterativo focou o esforço de anotação nas amostras mais informativas, acelerando a melhoria do desempenho (Gal e Ghahramani, 2016). O desempenho foi avaliado com a métrica Intersection over Union (IoU), mIoU e a matriz de confusão (Stehman, 1997).

A avaliação comparativa inicial, após duas iterações de aprendizagem ativa, demonstrou a superioridade do DeepLab v3+, que alcançou um mIoU de aproximadamente 0,65, enquanto a U-Net (Ronneberger et al., 2015) apresentou um mIoU inferior a 0,15. O bom desempenho do DeepLab é atribuído à sua capacidade de preservar a resolução espacial e agregar contexto multiescala, cruciais para distinguir as transições entre cana, falha e solo (Chen et al., 2017, 2018). Após a conclusão dos ciclos de aprendizagem ativa, o modelo final alcançou um mIoU de 0,70 no conjunto de teste. A análise por classe revelou um IoU de 0,84 para cana, 0,74 para solo e 0,50 para falha.

A classe cana foi a mais facilmente identificada (precisão de 0,94; revocação de 0,90). A classe solo também teve desempenho robusto (precisão de 0,84; revocação de 0,80). A classe falha foi a mais desafiadora (IoU de 0,50; precisão de 0,62; revocação de 0,72), devido à sua menor representatividade no dataset e à sua ambiguidade visual, pois o solo exposto em uma falha é similar ao solo da entrelinha. A matriz de confusão confirmou que a principal fonte de erro era a confusão entre solo e falha. A revocação de 0,72 indica que o modelo identificou a maior parte das falhas reais, o que é fundamental para a aplicação.

A estratégia de aprendizagem ativa guiada por entropia foi eficaz. Os mapas de incerteza mostraram que as maiores entropias se concentravam nas bordas dos sulcos e áreas de transição. Ao priorizar a anotação dessas amostras, o mIoU geral subiu de 0,65 para 0,70, e o IoU da classe falha aumentou de 0,44 para 0,50. Este resultado corrobora a literatura sobre aprendizagem ativa como ferramenta para reduzir o custo de rotulagem em aplicações de sensoriamento remoto (Berger et al., 2021).

Após a segmentação, o fluxo seguiu para a conversão dos mapas de pixels em métricas lineares. As máscaras das classes cana e falha foram unidas para formar uma representação contínua das linhas de plantio. Um pós-processamento com operações morfológicas de abertura e fechamento foi aplicado para remover ruídos e preencher lacunas. Em seguida, um algoritmo de extração de eixos (skeletonization) reduziu as linhas a um esqueleto de um pixel de espessura, preservando sua topologia (Zhang e Suen, 1984; van der Walt et al., 2014).

A partir dos esqueletos, a detecção de segmentos de reta foi realizada com duas técnicas complementares. A Transformada de Hough Progressiva e Probabilística (PPHT) identificou segmentos de reta, retornando seus pontos inicial e final (Matas et al., 2000). Para trechos com maior ruído, o algoritmo RANSAC (Random Sample Consensus) foi aplicado para ajustar retas de forma robusta, mesmo na presença de outliers (Fischler e Bolles, 1981). A combinação dessas técnicas permitiu uma detecção precisa dos sulcos.

Os segmentos de reta detectados foram filtrados para remover representações inválidas (muito curtas ou com baixo suporte de pixels). Cada pixel do esqueleto foi associado ao segmento de reta mais próximo e os pixels foram ordenados ao longo do eixo da reta e agrupados por sua classe original (cana ou falha). O comprimento de cada trecho foi calculado em pixels e convertido para metros utilizando o GSD (0,04231 m/px). Este procedimento permitiu a quantificação final: para cada linha, foram calculados o comprimento total, a extensão de falhas em metros e o percentual de falha.

A aplicação do fluxo em um recorte de amostra ilustra sua utilidade. Foram identificadas 18 linhas de plantio, com um comprimento total útil de 332,25 metros. Deste total, 20,67 metros foram classificados como falha, resultando em um percentual de falha agregado de 6,22%. O método forneceu indicadores para cada linha individualmente. Por exemplo, a linha 7 apresentou 14,28% de falha (3,69 metros em 25,85 metros), enquanto a linha 16 apresentou 29,94% de falha (1,99 metros em 6,64 metros). Essa granularidade permite que gestores priorizem as linhas mais críticas para replantio, otimizando a alocação de recursos.

O encadeamento das etapas – segmentação com DeepLab v3+, pós-processamento morfológico, detecção de linhas com Hough/RANSAC e conversão para metros via GSD – foi bem-sucedido em traduzir um mapa de pixels em um relatório agronômico acionável. A metodologia automatiza um processo manual, elevando a escala e a precisão da avaliação de uma amostragem para um censo do talhão. A entrega de métricas lineares por sulco está alinhada com práticas de manejo como a de Stolf (1986). Ao fornecer um diagnóstico rápido e objetivo, o método apoia decisões que impactam a produtividade da safra seguinte.

Em conclusão, o fluxo de processamento desenvolvido demonstrou ser tecnicamente viável e agronomicamente relevante. A combinação de deep learning para segmentação com técnicas clássicas de processamento de imagem para extração de métricas provou ser uma abordagem robusta. A principal contribuição do trabalho reside em fechar o ciclo entre a predição de um modelo de visão computacional e a geração de um indicador operacional diretamente integrável à tomada de decisão no campo. Ao substituir a amostragem manual por um mapeamento integral e de baixa latência, a metodologia oferece uma base objetiva para a priorização de operações de replantio. Limitações incluem a validação em um único talhão. Trabalhos futuros devem focar na expansão do banco de dados para incluir maior variabilidade, na validação em campo para correlacionar as métricas com medições tradicionais e na otimização computacional do fluxo.

Conclui-se que o objetivo foi atingido: demonstrou-se que o fluxo de processamento automatizado é capaz de identificar e quantificar falhas em linhas de plantio de cana-de-açúcar, convertendo predições de segmentação em métricas agronômicas lineares acionáveis. A solução proposta representa um avanço em relação aos métodos tradicionais, oferecendo uma ferramenta de agricultura de precisão que conecta a análise de dados de sensoriamento remoto a decisões de manejo que impactam a produtividade da lavoura.

Referências:
Adobe Systems Incorporated. 1992. TIFF Revision 6.0 Specification. San Jose, CA, USA.
Berger, K.; Caicedo J. P. R.; Martino L.; et al. 2021. A Survey of Active Learning for Quantifying Vegetation Traits from Terrestrial Earth Observation Data. Remote Sensing, 13(2), 287.
Blum, H. 1967. A Transformation for Extracting New Descriptors of Shape. In: Wathen-Dunn, W. (ed.). Models for the Perception of Speech and Visual Form. MIT Press, Cambridge, MA, USA. p. 362–380.
Chen, L.-C.; Papandreou, G.; Schroff, F.; Adam, H. 2017. Rethinking Atrous Convolution for Semantic Image Segmentation. arXiv:1706.05587.
Chen, L.-C.; Zhu, Y.; Papandreou, G.; Schroff, F.; Adam, H. 2018. Encoder–Decoder with Atrous Separable Convolution for Semantic Image Segmentation (DeepLab v3+). arXiv:1802.02611.
Chuvieco, E. 2016. Fundamentals of Satellite Remote Sensing: An Environmental Approach. 2ed. CRC Press, Boca Raton, FL, USA.
Colomina, I.; Molina, P. 2014. Unmanned Aerial Systems for Photogrammetry and Remote Sensing: A Review. ISPRS Journal of Photogrammetry and Remote Sensing 92: 79-97.
Duda, R. O.; Hart, P. E. 1972. Use of the Hough Transformation to Detect Lines and Curves in Pictures. Communications of the ACM 15(1): 11–15.
Empresa Brasileira de Pesquisa Agropecuária [EMBRAPA]. 2022. Plantio – Cana-de-açúcar.
Favero, L. P.; Belfiore, P. 2024. Manual de Análise de Dados: Estatística e Machine Learning com EXCEL®, SPSS®, STATA®, R® e Python®. 2ed. LTC, Rio de Janeiro, RJ, Brasil.
Fischler, M. A.; Bolles, R. C. 1981. Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography. Communications of the ACM 24(6): 381–395.
Gal, Y.; Ghahramani, Z. 2016. Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning. In: Proceedings of the 33rd International Conference on Machine Learning.
Goodfellow, I.; Bengio, Y.; Courville, A. 2016. Deep Learning. MIT Press, Cambridge, MA, USA.
He, K.; Zhang, X.; Ren, S.; Sun, J. 2016. Deep Residual Learning for Image Recognition. In: IEEE Conference on Computer Vision and Pattern Recognition (CVPR). p. 770–778.
Kamilaris, A.; Prenafeta-Boldú, F. X. 2018. Deep Learning in Agriculture: A Survey. Computers and Electronics in Agriculture 147: 70–90.
Matas, J.; Galambos, C.; Kittler, J. 2000. Robust Detection of Lines Using the Progressive Probabilistic Hough Transform. Computer Vision and Image Understanding 78: 119–137.
Mulla, D. J. 2013. Twenty-Five Years of Remote Sensing in Precision Agriculture: Key Advances and Remaining Knowledge Gaps. Biosystems Engineering 114(4): 358–371.
Penatti, C. A.; Landell, M. G. de A.; Dinardo-Miranda, L. L.; Vasconcelos, A. C. M. de; KANTHACK, R. A. D. 2011. Replantio de Soqueiras de Cana-de-Açúcar. Campinas: Instituto Agronômico, (Comunicado Técnico, 194).
Ronneberger, O.; Fischer, P.; Brox, T. 2015. U-Net: Convolutional Networks for Biomedical Image Segmentation. In: Medical Image Computing and Computer-Assisted Intervention – MICCAI 2015. Springer, Cham, p. 234–241.
Settles, B. 2012. Active Learning. Synthesis Lectures on Artificial Intelligence and Machine Learning, 6(1): 1–114.
Stehman, S. V. 1997. Selecting and Interpreting Measures of Thematic Classification Accuracy. Remote Sensing of Environment 62(1): 77–89.
Stolf, R. 1986. Metodologia de Avaliação de Falhas nas Linhas de Cana-de-Açúcar. STAB, 5(1), 22-28.
Van der Walt, S.; Schönberger, J. L.; Nunez-Iglesias, J.; et al. 2014. scikit-image: Image Processing in Python. PeerJ 2: e453.
Wolf, P. R.; Dewitt, B. A.; Wilkinson, B. E. 2014. Elements of Photogrammetry with Applications in GIS. 4ed. McGraw-Hill Education, New York, NY, USA.
Yu, F.; Koltun, V. 2016. Multi-Scale Context Aggregation by Dilated Convolutions. arXiv:1511.07122.
Zhang, N.; Wang, M.; Wang, N. 2002. Precision Agriculture —A Worldwide Overview. Computers and Electronics in Agriculture 36(2–3): 113–132.
Zhang, T. Y.; Suen, C. Y. 1984. A Fast Parallel Algorithm for “Thinning” Digital Patterns. Communications of the ACM 27(3): 236–239.


Resumo executivo oriundo de Trabalho de Conclusão de Curso de Especialização em Data Science e Analytics do MBA USP/Esalq

Saiba mais sobre o curso; clique aqui:

Quem editou este artigo

Você também pode gostar

Quer ficar por dentro das nossas últimas publicações? Inscreva-se em nossa newsletter!

Receba conteúdos e fique sempre atualizado sobre as novidades em gestão, liderança e carreira com a Revista E&S.

Ao preencher o formulário você está ciente de que podemos enviar comunicações e conteúdos da Revista E&S. Confira nossa Política de Privacidade