Resumo Executivo

05 de maio de 2026

IA em Finanças no Setor Alimentício: Tradução de Linguagem Natural para SQL

Lucas Prado Nogueira; Ricardo Antônio Câmara Da Silva

Resumo elaborado pela ferramenta ResumeAI, solução de inteligência artificial desenvolvida pelo Instituto Pecege voltada à síntese e redação.

A indústria alimentícia desempenha um papel fundamental para a subsistência da população global, garantindo a segurança alimentar por meio de inovações constantes nos processos produtivos e na oferta de produtos com custos acessíveis. No cenário brasileiro, esse setor assume uma relevância ainda maior, representando aproximadamente 10% do Produto Interno Bruto nacional e sendo responsável pela geração de empregos para milhões de cidadãos. Com o avanço da transformação digital, as grandes corporações desse segmento passaram a operar sob um regime de intensa digitalização, no qual a utilização de bancos de dados estruturados e relacionais tornou-se a espinha dorsal para a manutenção da integridade das informações e para o suporte à tomada de decisões estratégicas. Conforme apontam Silberschatz, Korth e Sudarshan (2020), a gestão eficiente desses dados é o que permite a agilidade necessária em mercados competitivos. No entanto, a interação com esses repositórios de dados geralmente exige o domínio da Structured Query Language, uma linguagem de programação padronizada voltada para a manipulação e consulta de dados em sistemas relacionais.

Apesar da onipresença do banco de dados nas estruturas corporativas, o acesso direto às informações estratégicas ainda configura um desafio substancial para profissionais alocados em departamentos como Finanças e Controladoria. Esses colaboradores frequentemente enfrentam uma barreira técnica, dependendo de equipes especializadas em tecnologia da informação para a extração de relatórios ou para a execução de consultas específicas. Essa dependência gera gargalos operacionais, retrabalhos e limita a autonomia dos gestores, dificultando respostas em tempo real às flutuações do mercado. A necessidade de transformar dados brutos em informações acionáveis exige, muitas vezes, conhecimentos avançados em programação ou na construção de painéis de visualização complexos, o que demanda um tempo considerável para a estruturação das buscas. Nesse contexto, a inteligência artificial surge como um elemento transformador, definida por Russell e Norvig (2016) como a capacidade de máquinas simularem processos cognitivos humanos, incluindo o aprendizado e o raciocínio lógico para a resolução de problemas complexos.

Dentro do campo da inteligência artificial, o processamento de linguagem natural destaca-se como a subárea dedicada a tornar a comunicação entre seres humanos e computadores mais eficiente e intuitiva. Segundo Jurafsky e Martin (2021), o desenvolvimento de modelos capazes de compreender as nuances da fala e da escrita humana permite que usuários sem formação técnica em computação interajam com sistemas complexos de forma simplificada. A evolução recente dos modelos de linguagem de grande escala possibilitou que a tradução de perguntas formuladas em linguagem natural para comandos técnicos, como o código SQL, se tornasse uma realidade viável para o ambiente corporativo. Zhou, Zhang e Lin (2022) corroboram essa perspectiva ao demonstrar que a aplicação de técnicas de processamento de linguagem natural em bancos de dados estruturados democratiza o acesso à informação, permitindo que a intuição do negócio guie a exploração dos dados sem as amarras da sintaxe de programação.

A justificativa para a implementação de soluções dessa natureza reside na busca pela eficiência gerencial e na redução do tempo de resposta para a análise de indicadores econômicos. O objetivo central é desenvolver uma ferramenta que atue como uma ponte entre o usuário final e o banco de dados, traduzindo intenções de busca em consultas precisas. A aplicação foca no Demonstrativo do Resultado do Exercício, também conhecido como Profit and Loss, que é um dos pilares da contabilidade corporativa. Esse demonstrativo é essencial para que funcionários de finanças analisem o desempenho de companhias, especialmente aquelas de capital aberto, que exigem transparência e rigor na apresentação de seus resultados. Ao automatizar a geração de consultas sobre o lucro, despesas e receitas, a solução proposta visa não apenas a produtividade, mas também o reforço do conhecimento sobre o potencial das tecnologias emergentes no setor financeiro.

A metodologia adotada para a condução deste estudo caracteriza-se como uma pesquisa aplicada, de natureza qualitativa e caráter exploratório. O foco principal foi a resolução de um problema específico dentro de uma empresa multinacional do setor alimentício, buscando ampliar o conhecimento sobre a integração de modelos de linguagem em fluxos de trabalho financeiros. De acordo com Theóphilo e Martins (2009), a pesquisa qualitativa permite um contato direto com o contexto real do problema, priorizando a compreensão dos fenômenos em detrimento de meras mensurações estatísticas. Para fundamentar o desenvolvimento, realizou-se uma revisão bibliográfica sistemática, abrangendo artigos científicos, livros e relatórios técnicos que discutem os avanços teóricos em modelos de linguagem e arquiteturas de armazéns de dados. Gil (2022) enfatiza que a abordagem exploratória é ideal para proporcionar maior familiaridade com o tema, permitindo que o planejamento considere diversos aspectos do objeto de estudo.

O processo operacional foi dividido em etapas rigorosas, iniciando-se pela coleta de percepções dos usuários e culminando no desenvolvimento técnico de um protótipo funcional. Para compreender os desafios enfrentados pelos profissionais, aplicou-se um formulário estruturado via Google Forms a colaboradores das áreas de Finanças e Tecnologia da Informação. O questionário investigou o nível de familiaridade com a linguagem SQL, a frequência de consultas realizadas e o tempo médio despendido para a obtenção de dados. Flick (2009) ressalta que a experiência prévia do pesquisador e o contato com os sujeitos da pesquisa são fundamentais para o suporte às reflexões e decisões durante a produção do conhecimento. A participação foi voluntária e anônima, garantindo a confidencialidade necessária para que os respondentes expressassem suas reais dificuldades e expectativas quanto ao uso de ferramentas automatizadas.

No desenvolvimento do back-end, utilizou-se a linguagem de programação Python, integrando bibliotecas como SQLite para a persistência de dados e SQLAlchemy para a abstração das consultas. A escolha dessas ferramentas deveu-se à robustez e à ampla documentação disponível, facilitando a comunicação com o banco de dados simulado. A integração com a inteligência artificial ocorreu por meio de interfaces de programação de aplicações da plataforma Groq Cloud, onde foram testados diversos modelos de linguagem. Priorizou-se o modelo llama-3.1-8b-instant, que apresentou um equilíbrio satisfatório entre o custo computacional e a precisão interpretativa. Para elevar a acurácia do sistema, implementou-se uma camada de pré-processamento linguístico, responsável pela normalização semântica, remoção de acentuações e tratamento de sinônimos específicos do vocabulário corporativo, garantindo que diferentes formas de perguntar sobre o mesmo indicador financeiro resultassem no mesmo comando SQL válido.

A interface do usuário, ou front-end, foi construída utilizando o framework Streamlit, que permite a criação de aplicações web interativas de forma ágil e com baixo custo de desenvolvimento. Essa interface possibilitou que o usuário digitasse suas dúvidas em português, visualizasse o comando SQL gerado em tempo real e acessasse os resultados da consulta diretamente na tela, sem a necessidade de instalações adicionais. Recursos de usabilidade, como o histórico de buscas e a opção de exportação dos dados em formato CSV, foram incorporados para aumentar a aplicabilidade prática da ferramenta. A modelagem do banco de dados seguiu a estrutura de esquema estrela, organizando as informações em tabelas de fato e dimensões, o que é ideal para análises rápidas em sistemas de inteligência de negócios. O banco de dados continha informações fictícias de Profit and Loss da América Latina, com detalhamento por país, unidade de negócio e canal de venda, refletindo a complexidade de um ambiente corporativo real.

A validação do sistema ocorreu em duas frentes distintas: a técnica e a perceptiva. Na dimensão técnica, submeteu-se o sistema a um conjunto de 110 perguntas predefinidas, abrangendo diversas dimensões do banco de dados, como receitas líquidas e despesas operacionais em países como Brasil, Argentina e México, referentes aos anos de 2023 e 2024. Cada resposta gerada pela inteligência artificial foi comparada com um valor de referência obtido via consulta manual, permitindo mensurar a acurácia do tradutor. Na dimensão perceptiva, os dados do questionário foram analisados para identificar o nível de aceitação da solução. A análise dos resultados incluiu também uma comparação com métodos tradicionais, como a execução direta de código por especialistas e o uso de ferramentas de Business Intelligence, avaliando o tempo de processamento e a facilidade de uso.

Os resultados obtidos revelaram que a aplicação baseada em modelos de linguagem apresenta um desempenho altamente competitivo, especialmente em consultas de complexidade baixa e média. Observou-se que 85,7% dos profissionais consultados concordam que o uso de linguagem natural facilita significativamente o acesso aos dados, reduzindo a dependência de equipes técnicas para tarefas rotineiras. Além disso, a mesma porcentagem de respondentes afirmou que apoiaria a adoção formal de uma ferramenta de inteligência artificial com esse propósito na organização. No que diz respeito ao conforto no uso de interfaces de conversação, 78,6% dos participantes declararam-se confortáveis em utilizar um chatbot para buscar informações financeiras. Esses dados sugerem que existe uma demanda real e uma predisposição favorável à adoção de tecnologias que simplifiquem a interação com dados estruturados.

Durante os testes técnicos, o modelo llama-3.1-8b-instant demonstrou uma compreensão robusta das perguntas formuladas em português, conseguindo mapear corretamente as intenções dos usuários para o esquema do banco de dados. No entanto, identificou-se que perguntas excessivamente ambíguas ou que utilizavam termos fora do vocabulário normalizado podiam levar a erros de interpretação. Wang, Li e Chen (2023) destacam que, embora os modelos de linguagem possuam um potencial enorme para a geração automática de código, a incidência de alucinações é um fator que não pode ser ignorado. No contexto deste estudo, as alucinações manifestaram-se na criação de consultas que, embora sintaticamente corretas, não encontravam respaldo nos dados disponíveis ou na lógica de negócio, resultando em valores incorretos ou mensagens de erro. Esse fenômeno reforça a necessidade de mecanismos de validação sistemática e de uma camada de governança humana sobre os resultados gerados.

A análise financeira da operação do sistema também trouxe dados relevantes. Durante um único dia de testes intensivos, o consumo de tokens foi de aproximadamente 16.049 tokens de entrada e 4.648 tokens de saída. Embora a etapa experimental tenha sido viabilizada pelos limites gratuitos da plataforma Groq Cloud, a transição para um ambiente de produção em larga escala exigiria um planejamento orçamentário detalhado. O custo por aquisição de informação está diretamente ligado ao volume de requisições e ao padrão de utilização dos modelos. Portanto, a escalabilidade da solução depende de um equilíbrio entre o custo computacional e a qualidade das respostas, sendo necessário avaliar se modelos menores e mais baratos são suficientes ou se a complexidade das consultas exige instâncias mais avançadas e onerosas.

A discussão sobre a segurança dos dados emergiu como um ponto crítico nas respostas qualitativas do formulário. Os usuários expressaram receios quanto ao risco de vazamento de informações sensíveis ao utilizar plataformas de terceiros ou conexões externas. Muitos participantes indicaram que se sentiriam mais seguros se a ferramenta fosse formalmente homologada pela equipe de tecnologia da informação e se houvesse um controle rigoroso de acessos. Essa preocupação é legítima, uma vez que dados financeiros possuem elevado impacto estratégico. Como forma de mitigação, sugere-se o isolamento dos modelos em ambientes controlados e a implementação de protocolos de autenticação robustos. A perda de autonomia analítica também foi mencionada como um risco, caso as equipes se tornem excessivamente dependentes da ferramenta e percam a capacidade de realizar análises críticas independentes.

Comparando a solução desenvolvida com as ferramentas de Business Intelligence tradicionais, notou-se que a principal vantagem da inteligência artificial é a flexibilidade. Enquanto os painéis de Business Intelligence são geralmente estáticos e limitados a visões predefinidas, a interface em linguagem natural permite consultas ad hoc, atendendo a necessidades específicas que podem não ter sido previstas no desenvolvimento original do painel. Por outro lado, as ferramentas tradicionais ainda oferecem maior confiabilidade estatística e menor risco de interpretações equivocadas. Assim, a aplicação proposta não deve ser vista como um substituto definitivo para o conhecimento técnico em SQL ou para as ferramentas de visualização consolidadas, mas sim como um complemento que amplia a autonomia e acelera a tomada de decisão em ambientes complexos.

As limitações técnicas identificadas, como a restrição de requisições por minuto na versão gratuita da API e a execução em ambiente local, apontam caminhos para evoluções futuras. A integração com bancos de dados em nuvem e a adaptação para múltiplos idiomas são passos necessários para que a ferramenta atinja um nível de maturidade industrial. Além disso, a implementação de restrições semânticas adicionais no motor de tradução poderia reduzir drasticamente a ocorrência de alucinações, garantindo que o modelo opere dentro de limites lógicos estritos. A realização de testes em ambientes reais, com um volume massivo de dados e uma base de usuários mais diversificada, permitiria refinar ainda mais os algoritmos de pré-processamento e a interface de usuário.

Em síntese, a arquitetura da aplicação, que conecta o front-end em Streamlit ao agente de processamento implementado com bibliotecas de orquestração e ao banco de dados SQLite, provou ser uma prova de conceito eficaz. O fluxo de interação, desde a pergunta do usuário até a exibição da tabela de resultados, demonstrou que a barreira técnica para o acesso a dados financeiros pode ser significativamente reduzida. A democratização da informação corporativa, proporcionada por essa integração tecnológica, contribui para uma cultura organizacional mais orientada a dados, onde a agilidade na obtenção de indicadores econômicos torna-se um diferencial competitivo. A necessidade de supervisão técnica e de conhecimento prévio em finanças por parte do usuário final permanece essencial para a validação crítica dos resultados, garantindo que a inovação tecnológica caminhe lado a lado com o rigor analítico exigido pelo setor.

Conclui-se que o objetivo foi atingido, uma vez que a aplicação desenvolvida validou a viabilidade técnica do uso de modelos de linguagem de grande escala para a tradução de consultas financeiras em linguagem natural para SQL, demonstrando uma alta taxa de aceitação entre os profissionais das áreas de finanças e tecnologia. A solução proporcionou ganhos relevantes em termos de agilidade e autonomia no acesso aos dados do demonstrativo de resultados, reduzindo gargalos operacionais e a dependência de especialistas em programação para consultas rotineiras. Apesar dos desafios identificados, como a ocorrência de alucinações em modelos menores e as preocupações com a segurança de dados sensíveis, o estudo evidenciou que a integração de inteligência artificial em fluxos de trabalho corporativos é uma tendência irreversível e promissora. O protótipo funcional cumpriu seu papel de simplificar a exploração de indicadores econômicos, abrindo caminho para futuras pesquisas que busquem a escalabilidade em nuvem e o aprimoramento dos mecanismos de governança e precisão linguística em sistemas de suporte à decisão.

Referências Bibliográficas:

FLICK, U. An introduction to qualitative research. Thousand Oaks: SAGE Publications, 2009.

GIL, A. C. Como elaborar projetos de pesquisa. 57. ed. São Paulo: GEN | Atlas, 2022

JURAFSKY, D.; MARTIN, J. H. Speech and language processing: an introduction to natural language processing, computational linguistics, and speech recognition. 3. ed. New Jersey: Prentice Hall, 2021.

RUSSELL, S.; NORVIG, P. Inteligência artificial: uma abordagem moderna. 3. ed. São Paulo: Pearson Education, 2016.

SILBERSCHATZ, A.; KORTH, H. F.; SUDARSHAN, S. Database system concepts. 7. ed. New York: McGraw-Hill, 2020.

THEÓPHILO, C. R.; MARTINS, G. A. Metodologia da investigação científica para ciências sociais aplicadas. 2. ed. São Paulo: Atlas, 2009.

WANG, B.; LI, T.; CHEN, Y. GPT-powered SQL query generation: challenges and opportunities. Journal of Artificial Intelligence Research (JAIR), v. 67, n. 2, p. 112-130, 2023.

ZHOU, Y.; ZHANG, M.; LIN, C. A survey on natural language processing for database querying. ACM Computing Surveys, v. 55, n. 3, p. 1-39, 2022.

Resumo executivo oriundo de Trabalho de Conclusão de Curso da Especialização em Engenharia de Software do MBA USP/Esalq

Para saber mais sobre o curso, clique aqui e acesse a plataforma MBX Academy

Quem editou este artigo

Mais recentes

Você também pode gostar

Quer ficar por dentro das nossas últimas publicações? Inscreva-se em nossa newsletter!

Receba conteúdos e fique sempre atualizado sobre as novidades em gestão, liderança e carreira com a Revista E&S.

Ao preencher o formulário você está ciente de que podemos enviar comunicações e conteúdos da Revista E&S. Confira nossa Política de Privacidade