
06 de fevereiro de 2026
Precificação competitiva no varejo alimentar com coleta automatizada de dados da concorrência
Erica Fernanda Oliveira; Paula Bruzadelle Vieira
Resumo elaborado pela ferramenta ResumeAI, solução de inteligência artificial desenvolvida pelo Instituto Pecege voltada à síntese e redação.
Esta pesquisa desenvolveu e implementou um algoritmo em Python para automatizar a coleta de preços e sortimento de concorrentes no marketplace iFood, com integração dos dados em planilhas Excel. A solução fornece à área de pricing da empresa analisada uma ferramenta para mensurar o Índice de Competitividade (IC%) e identificar lacunas de sortimento. O objetivo é subsidiar ajustes ágeis e fundamentados nas estratégias de preços e mix de produtos, alinhando o canal digital às dinâmicas de mercado. O estudo demonstra os benefícios de uma abordagem orientada por dados e de baixo custo, aponta limitações e sugere melhorias, como a orquestração de rotinas e a incorporação de variáveis competitivas mais complexas.
O varejo alimentar no Brasil enfrenta intensa competitividade, moldada por um novo perfil de consumidor e pressões de mercado. Relatórios indicam que, no pós-pandemia, aumentou a sensibilidade dos consumidores a preços e a busca por variedade, elevando a complexidade da gestão para supermercados (ABRAS, 2023; APAS, 2022). A precificação tornou-se pilar para equilibrar percepção de valor, competitividade e rentabilidade. Conforme Nagle e Müller (2018), a precificação eficaz exige compreensão do valor percebido pelo consumidor e do comportamento da concorrência. A capacidade de inovar em marketing e precificação é um fator determinante para a sustentabilidade do setor (Berkhout, 2020).
Apesar da importância de decisões orientadas por dados, muitas empresas do varejo ainda usam métodos baseados em intuição ou processos manuais (SA Varejo, 2022). O principal obstáculo é a dificuldade de obter informações confiáveis e atualizadas sobre concorrentes. Métodos tradicionais, como visitas a lojas ou pesquisas terceirizadas, são onerosos, limitados em escopo e frequência, e sujeitos a erros. Nesse cenário, o web scraping — extração automatizada de dados de websites — emerge como uma alternativa estratégica. Essa abordagem permite coletar informações de marketplaces em larga escala e tempo quase real, transformando dados públicos em inteligência competitiva (Mitchell, 2018). A aplicabilidade da técnica no setor de alimentos foi validada em estudos como o de Hillen (2019), que a utilizou para monitoramento de preços.
A literatura de negócios reforça os benefícios dessa abordagem. Análises da McKinsey & Company (2022) revelam que supermercados que ajustam preços com base em benchmarking competitivo sistemático têm até 15% mais chances de ampliar suas margens. A satisfação do cliente pode aumentar em até 20% quando as decisões são embasadas em dados (Harvard Business Review, 2023). Provost e Fawcett (2013) argumentam que decisões baseadas em dados reduzem vieses, alinhado ao princípio de Deming (1986) de que “o que não é medido não pode ser gerenciado”. No varejo alimentar, a qualidade dos dados impacta diretamente a rentabilidade (Fávero e Belfiore, 2019). Portanto, a integração de dados internos (ERP) com informações externas coletadas via web scraping configura um caminho robusto para uma gestão fundamentada em evidências (Deloitte, 2022).
O estudo foi conduzido em uma rede supermercadista de São Paulo com mais de 30 lojas físicas, das quais 14 operam no iFood. A pesquisa compara essas 14 lojas com 14 concorrentes diretos na mesma plataforma. Um fator crítico foi a política comercial da empresa para o canal digital, que estabelece uma taxa de 8% sobre o preço de cada produto. Esse markup cria um dilema: repassar a taxa afeta a competitividade, enquanto absorvê-la impacta as margens. Antes do projeto, o monitoramento da concorrência era manual, um processo ineficiente, demorado, propenso a erros e que não capturava diferenças de sortimento, fornecendo uma visão limitada da competitividade.
Para atingir os objetivos, foi implementado um algoritmo em Python para automatizar a coleta de dados no iFood e integrá-los com as bases internas da empresa. A metodologia foi dividida em quatro componentes: definição das fontes de dados, coleta automatizada, processamento e cruzamento das informações, e cálculo dos indicadores. O pipeline de dados desenvolvido abrange desde a extração no iFood até a consolidação de relatórios em Excel para a equipe de pricing. Ferramentas de orquestração como o Apache Airflow foram consideradas como uma evolução para viabilizar rotinas contínuas de coleta, alinhando-se às tendências de automação no varejo (NRF, 2023; Apache Software Foundation, 2023).
O projeto utilizou fontes de dados externas e internas. A fonte externa foi o marketplace iFood, especificamente os catálogos de produtos de concorrentes selecionados pela equipe de pricing. As fontes internas foram extrações do ERP da rede em formato Excel, incluindo: uma tabela de produtos com códigos de barras (EANs); uma tabela de cadastro mercadológico com a hierarquia de cada produto; uma tabela de sortimento por loja; e uma tabela de preços e custos internos.
A coleta automatizada foi realizada por web scraping. Cada loja concorrente possuía um ID único no iFood. A inspeção da interface web revelou um endpoint de API que retornava o catálogo completo de uma loja em formato JSON quando o ID era fornecido. Essa descoberta permitiu uma coleta mais eficiente do que a raspagem de HTML com BeautifulSoup (Richardson, 2023) ou a automação de navegação com Selenium (2023). Optou-se por consumir os dados da API via requisições HTTP GET, utilizando a biblioteca Requests em Python (Reitz & Cory, 2023). Para cada concorrente, os dados foram obtidos de forma programática, sem necessidade de autenticação, pois as informações do catálogo são públicas.
Após a coleta, os dados da concorrência foram cruzados com as bases internas da empresa usando o código EAN como chave. O DataFrame dos concorrentes foi mesclado com a tabela de EANs do ERP, identificando produtos equivalentes. Em seguida, foram adicionadas informações da árvore mercadológica para permitir análises segmentadas. O processo incluiu a integração da informação de qual loja da rede estava sendo comparada a cada concorrente e a incorporação de dados internos de preços e custos. Com a base unificada, calculou-se o Índice de Competitividade (IC%) pela fórmula: IC% = (Preço Rede iFood / Preço Concorrente iFood) × 100. Valores acima de 100 indicam que a rede está mais cara. O processamento foi realizado com a biblioteca pandas (McKinney, 2017), e o resultado exportado para um arquivo Excel.
A implementação do algoritmo gerou resultados acionáveis. O ganho mais imediato foi a redução do tempo para pesquisa de preços. O processo manual consumia cerca de 240 minutos para uma amostra limitada. Com a automação, a coleta completa e geração de relatórios passaram a ser realizadas em aproximadamente 10 minutos, uma economia de tempo superior a 95,8%. Essa eficiência permitiu aumentar a frequência de atualização de semanal para diária, alinhando a empresa às melhores práticas de inteligência de mercado (Provost & Fawcett, 2013; McKinsey & Company, 2022).
Houve também uma ampliação substancial no volume e cobertura dos dados. Em vez de dezenas de SKUs, a solução passou a abranger todo o sortimento dos concorrentes. A coleta de 21 de julho de 2025 resultou em 30.768 EANs únicos e 127.410 observações de preços. Essa abrangência revelou que aproximadamente 28,9% dos produtos ofertados pelos concorrentes não faziam parte do sortimento da rede em determinadas lojas. Essa lacuna abriu discussões sobre a incorporação de novos itens, beneficiando a gestão de sortimento, pois a variedade é um fator de decisão importante para o consumidor (APAS, 2022).
O cálculo do IC% forneceu uma visão quantitativa do posicionamento de preços. O IC% médio geral foi de 105,2%, indicando que os preços da rede no iFood estavam, em média, 5,2% acima dos concorrentes. A análise segmentada revelou variações significativas: em categorias como arroz, a rede era competitiva (IC médio de 88,8%), mas em carne bovina congelada, os preços estavam 30,8% acima, um risco de perda de clientes. Outras categorias com preços mais altos incluíam salgados e pratos prontos (IC 128,4%) e vinhos (IC 122,0%), enquanto café (IC 91,5%) e massas (IC 93,2%) demonstravam um posicionamento mais agressivo.
A distribuição dos itens por faixas de IC% mostrou que 47% dos produtos estavam na faixa “mais caro” (IC ≥ 1,05), 21% em posição “neutra” (0,98 < IC < 1,05), e 32% “mais baratos” (IC ≤ 0,98). Essa assimetria evidenciou que a política de markup fixo de 8% não era ótima. Com base nisso, foram propostas ações táticas: para categorias com IC elevado e margens saudáveis, sugeriu-se reduções de preço; para aquelas com IC elevado e margens apertadas, a recomendação foi renegociar custos ou ajustar o sortimento. Para itens já competitivos, a orientação foi proteger as margens e usá-los em ações de marketing.
A análise de sortimento revelou que a lacuna de 28,9% era tanto uma ameaça quanto uma oportunidade, instigando discussões sobre critérios de inclusão de novos produtos. A análise também permitiu identificar itens exclusivos da rede, que poderiam ser promovidos como diferenciais. Os dados de concorrência funcionaram como um benchmark de sortimento, fornecendo insumos para otimizar o equilíbrio entre profundidade e variedade, fator essencial para maximizar vendas e satisfação do cliente (Berman e Evans, 2018).
A acurácia dos dados foi validada por meio de comparações com coletas manuais, não sendo encontradas discrepâncias. Os preços capturados pelo algoritmo refletiam com precisão os valores no iFood, reforçando a confiabilidade do método (Mitchell, 2018; Provost & Fawcett, 2013). O armazenamento dos arquivos JSON brutos de cada coleta contribuiu para a rastreabilidade e auditoria dos dados, aumentando a confiança nos resultados.
Apesar do sucesso, foram identificadas limitações. A principal foi a ausência de EANs em categorias como frutas, legumes e verduras (FLV) e itens de peso variável, o que inviabilizou o pareamento automático. Outra limitação foi a ausência de orquestração automatizada da rotina de coleta, cuja execução ainda dependia de acionamento manual. A implementação de uma ferramenta como o Apache Airflow foi identificada como uma evolução necessária para garantir a coleta contínua de dados.
Os resultados confirmaram que a iniciativa gerou ganhos concretos. A empresa obteve redução nos custos e tempo de coleta, ampliação no volume de informações e a capacidade de tomar decisões de precificação e sortimento mais embasadas e proativas (Deloitte, 2022; NielsenIQ, 2023). A solução transformou a função de pricing de uma atividade reativa para um processo estratégico de inteligência competitiva, um diferencial no setor supermercadista (SA Varejo, 2022; ABRAS, 2023). A tomada de decisão tornou-se mais assertiva, em consonância com a visão de que a informação de mercado é central para a estratégia de marketing (Kotler & Keller, 2012).
Este estudo demonstrou que a automação da coleta de dados da concorrência é uma solução viável e de alto impacto para o varejo alimentar. A iniciativa respondeu ao problema de como monitorar a competitividade no canal digital, reduzindo em mais de 95% o tempo de coleta e ampliando a cobertura para todo o sortimento dos concorrentes. A contribuição prática reside na substituição de um processo manual por um fluxo automatizado, confiável e de baixo custo. Gerencialmente, o Índice de Competitividade (IC%) provou-se uma métrica clara para subsidiar ajustes estratégicos, reforçando que a precificação deve equilibrar fatores internos e o ambiente competitivo externo.
As limitações identificadas abrem caminhos para trabalhos futuros. Recomenda-se a incorporação de metodologias de pareamento baseadas em descrição de produtos para itens sem EAN, a adoção de ferramentas de orquestração como o Apache Airflow para automação plena, e a ampliação dos indicadores para incluir métricas como a elasticidade-preço da demanda. A solução desenvolvida provou ser tecnicamente viável, escalável e de baixo custo, confirmando o papel da inteligência de mercado como diferencial competitivo. Conclui-se que o objetivo foi atingido: demonstrou-se que a automação da coleta e análise de dados da concorrência viabiliza o monitoramento competitivo contínuo e subsidia decisões de precificação mais ágeis e fundamentadas no varejo alimentar.
Referências:
ABRAS – Associação Brasileira de Supermercados. Ranking ABRAS 2023: gestão de preços como fator crítico de competitividade. São Paulo: ABRAS, 2023.
APACHE SOFTWARE FOUNDATION. Apache Airflow Documentation. Apache, 2023.
APAS – Associação Paulista de Supermercados. Pesquisa APAS 2022: tendências de sortimento e comportamento do consumidor. São Paulo: APAS, 2022.
BERKHOUT, C. Estratégias de Marketing e Vendas no Varejo. São Paulo: Alta Books, 2020.
BERMAN, B.; EVANS, J. Retail Management: A Strategic Approach. 13. ed. New Jersey: Pearson, 2018.
DELOITTE. The Future of Retail: tendências e automação no varejo global. São Paulo: Deloitte, 2022.
DEMING, W. E. Out of the Crisis. Cambridge: MIT Press, 1986.
FÁVERO, L. P.; BELFIORE, P. Estatística Aplicada ao Varejo – Volume 1. Rio de Janeiro: Elsevier, 2019.
HARVARD BUSINESS REVIEW BRASIL. Benchmarking e satisfação do cliente no setor supermercadista. São Paulo: HBR Brasil, ed. 5, 2023.
HILLEN, J. Web scraping for food price monitoring: methods, validity, and applications. Journal of Food Research, v. 8, n. 3, p. 45-59, 2019.
KOTLER, P.; KELLER, K. Administração de Marketing. 14. ed. São Paulo: Pearson, 2012.
McKINNEY, W. Python for Data Analysis: Data Wrangling with Pandas, NumPy, and IPython. 2. ed. Sebastopol: O’Reilly Media, 2017.
McKINSEY & COMPANY. Estratégias de precificação e aumento de margem no varejo alimentar. São Paulo: McKinsey & Company, 2022.
MITCHELL, R. Web Scraping with Python: Collecting Data from the Modern Web. 2. ed. Sebastopol: O’Reilly Media, 2018.
NAGLE, T.; MÜLLER, G. The Strategy and Tactics of Pricing: a guide to growing more profitably. 6. ed. New York: Routledge, 2018.
NIELSENIQ. Insights de competitividade e elasticidade no setor supermercadista. São Paulo: NielsenIQ, 2023.
NRF – National Retail Federation. NRF Big Show Report 2023: tendências globais do varejo. New York: NRF, 2023.
PROVOST, F.; FAWCETT, T. Data Science for Business: What You Need to Know about Data Mining and Data-Analytic Thinking. Sebastopol: O’Reilly Media, 2013.
REITZ, K.; CORY, T. Requests: HTTP for Humans – Documentation. Python Software Foundation, 2023.
RICHARDSON, L. Beautiful Soup Documentation. Crummy. com, 2023.
SA VAREJO. Inteligência de preços e estratégias de competitividade no varejo brasileiro. São Paulo: SA Varejo, 2022.
SELENIUM. Selenium WebDriver Documentation. SeleniumHQ, 2023.
Resumo executivo oriundo de Trabalho de Conclusão de Curso de Especialização em Data Science e Analytics do MBA USP/Esalq
Saiba mais sobre o curso; clique aqui:






































