
10 de fevereiro de 2026
Análise da inteligência artificial em recrutamento: eficiência, equidade e percepção social
Soraia Herrador Costa Lima; Adriana Villanova de Almeida
Resumo elaborado pela ferramenta ResumeAI, solução de inteligência artificial desenvolvida pelo Instituto Pecege voltada à síntese e redação.
Este estudo avaliou o impacto da Inteligência Artificial (IA) na eficiência e equidade das decisões de Recursos Humanos, analisando as percepções de profissionais da área, as experiências de candidatos e validando os achados por meio de análise de escuta social (social listening). A investigação buscou compreender a lacuna entre a promessa de otimização da IA e a realidade experiencial dos indivíduos, explorando os desafios éticos, técnicos e de governança na automação de processos seletivos. A pesquisa identificou os principais pontos de atrito, as expectativas dos stakeholders e as condições para uma adoção responsável da IA, que harmonize a agilidade organizacional com o respeito à dignidade e justiça no tratamento dos candidatos.
A transformação digital posicionou a IA como ferramenta estratégica para a complexidade e o volume dos processos de recrutamento. Ferramentas de people analytics e machine learning prometem automatizar a triagem de currículos, análise de perfis e previsão de aderência ao cargo (Studart & Martinez, 2023). Essa automação permite que organizações processem um grande volume de candidaturas com agilidade, reduzindo tempo e custos operacionais (Reis & Graminho, 2022). Contudo, essa transição apresenta desafios. A literatura alerta que a implementação acrítica dessas tecnologias pode perpetuar e amplificar vieses históricos, comprometendo a equidade e a diversidade.
A questão central é que algoritmos aprendem a partir de dados históricos. Se esses dados refletem padrões discriminatórios, os sistemas de IA podem reproduzir essas desigualdades, impactando grupos minoritários (Leite & Mesquita, 2019). A falta de transparência nos critérios de decisão dos algoritmos, o fenômeno da “caixa-preta”, agrava o problema, gerando desconfiança e percepção de injustiça. Como aponta Todolí Signes (2019), decisões automatizadas baseadas em dados históricos não auditáveis podem intensificar desigualdades, tornando a seleção opaca e excludente. A preocupação com o viés algorítmico é prática; estudos demonstram que o uso de big data sem governança pode acentuar impactos discriminatórios (Barocas & Selbst, 2016).
Além dos desafios técnicos, a IA no recrutamento levanta questões éticas sobre responsabilidade corporativa. A regulação sobre o uso de algoritmos em decisões de emprego é incipiente, exigindo que as organizações adotem proativamente estratégias de governança para garantir equidade. A falta de supervisão sobre os critérios dos sistemas pode levar à exclusão de perfis diversos, minando esforços de diversidade e inclusão. Nesse contexto, o papel do profissional de Recursos Humanos é crucial. Varma et al. (2023) argumentam que esses profissionais devem atuar como “defensores primários dos trabalhadores”, monitorando os programas de IA para assegurar que funcionem conforme o pretendido, protegendo a dignidade humana e garantindo a justiça.
Contudo, a capacidade do setor de RH para assumir esse papel é limitada. Profissionais da área são pressionados a demonstrar relevância com analytics, mas muitas vezes carecem das competências técnicas para implementar e auditar essas tecnologias (Diefenhardt et al., 2024). Essa lacuna pode resultar em dependência de fornecedores de tecnologia, sem envolvimento na modelagem e validação dos algoritmos. Angrave et al. (2016) alertam para o risco de que, sem esse envolvimento, os modelos tratem o capital humano como um “custo fixo a ser controlado”, e não como um ativo. A literatura evidencia que poucas organizações usam o HR Analytics para mensurar impactos estratégicos, limitando-se a métricas operacionais (Marler & Boudreau, 2017), o que demonstra a distância entre o potencial da tecnologia e sua aplicação.
Para investigar essa dinâmica, o estudo adotou uma abordagem de pesquisa aplicada. A metodologia foi estruturada em uma estratégia de triangulação múltipla, que, segundo Santos et al. (2020), permite a apreensão da realidade sob diversos ângulos, minimizando vieses. Essa abordagem combinou revisão da literatura com a coleta e análise de dados primários de três fontes: profissionais de Recursos Humanos, candidatos que interagiram com sistemas de IA e o discurso público em redes sociais. A combinação de perspectivas permitiu um cruzamento de dados que validou e enriqueceu a compreensão do fenômeno.
A primeira etapa foi uma revisão bibliográfica sistemática em bases como Scielo e Google Scholar, priorizando estudos sobre viés algorítmico, governança de dados, ética na IA e transformações digitais em RH. Foram incorporados trabalhos sobre os desafios de analytics (Angrave et al., 2016), a necessidade de evidências em HR Analytics (Marler & Boudreau, 2017), os aspectos éticos da IA (Varma et al., 2023) e o paradoxo da competência analítica em RH (Diefenhardt et al., 2024), construindo a base teórica para a análise empírica.
A coleta de dados primários foi realizada com dois questionários estruturados no Google Forms, com perguntas fechadas e escala Likert. O primeiro, com 19 perguntas, foi direcionado a profissionais de RH, e o segundo, com 14 perguntas, a profissionais que participaram de processos seletivos com IA. A coleta ocorreu entre 3 e 10 de junho de 2025, com divulgação não probabilística por conveniência em redes como LinkedIn e WhatsApp, resultando em nove respostas de profissionais de RH e 30 de candidatos. Embora a amostra não permita generalização estatística, oferece insights qualitativos.
Para complementar, foi incorporada uma análise de social listening realizada entre 1 de junho e 31 de agosto de 2025. Utilizando a plataforma YouScan, foram coletadas 6.992 menções públicas em redes sociais (YouTube, TikTok, Facebook, Twitter), fóruns e sites de notícias. Uma query de busca com operadores booleanos capturou discussões sobre IA em processos seletivos. A plataforma realizou uma análise de sentimento automática (positiva, negativa, neutra), permitindo uma análise quantitativa do sentimento público e qualitativa dos temas recorrentes. Esta abordagem capturou percepções autênticas e não direcionadas.
A análise dos dados dos questionários foi quantitativa, baseada em frequência, para identificar padrões. Os dados de social listening foram submetidos a uma análise mista: quantitativa (volume, distribuição) e qualitativa (categorização de temas). A triangulação desses três conjuntos de dados permitiu uma validação cruzada dos resultados; as percepções dos profissionais de RH, as experiências dos candidatos e o discurso público foram comparados para construir uma visão integrada. A pesquisa foi conduzida com rigor ético, garantindo consentimento e anonimato dos participantes e analisando apenas menções públicas, em conformidade com a legislação de proteção de dados.
A análise dos dados revelou uma assimetria de percepções. Os profissionais de RH, embora a maioria ainda não utilize IA de forma efetiva (apenas 11,1% das organizações), demonstraram otimismo sobre o potencial da tecnologia, com forte expectativa de que a IA trará maior eficiência e agilidade. Este otimismo parece desvinculado da prática, refletindo uma adesão à promessa tecnológica, o que ecoa as observações de Diefenhardt et al. (2024) sobre as “manobras táticas” de profissionais de RH para demonstrar relevância estratégica através de analytics sem domínio técnico.
Essa visão positiva não se estendeu à equidade. Houve incerteza entre os profissionais de RH sobre a capacidade da IA de reduzir vieses, corroborando a literatura que alerta para a “ilusão de imparcialidade algorítmica” sem governança (Binns, 2018). A pesquisa identificou uma ausência de práticas formais de mitigação de viés e auditoria de algoritmos. Essa lacuna sugere que a implementação da IA ocorre sem uma cultura de governança e ética digital, um risco apontado por Reis e Graminho (2022) e Barocas e Selbst (2016). A maioria dos profissionais admitiu que os candidatos não são informados sobre o uso de IA, uma falha de comunicação que mina a confiança.
Em contraste com o otimismo do RH, a experiência dos candidatos com sistemas de IA foi negativa. Dos 30 respondentes, 70% não se sentiram avaliados de maneira justa, e 76,7% classificaram o processo como pouco ou nada transparente. A maioria (63,3%) afirmou que a IA prejudicou sua avaliação, por não compreenderem os critérios e pela ausência de feedback. Esses dados confirmam as preocupações de Leicht-Deobald et al. (2019) sobre o impacto negativo da opacidade algorítmica. O nível de confiança na tecnologia foi baixo, com 76,7% dos participantes afirmando “não confiar” ou “confiar pouco” em processos mediados por IA.
Questionados sobre o que aumentaria sua confiança, a resposta foi quase unânime: “transparência sobre os critérios de avaliação” foi a condição mais citada, com 82,8% das respostas. Este resultado reforça a necessidade de as empresas adotarem práticas de explainable AI (IA explicável), conforme defendido por Todolí Signes (2019), para que os candidatos compreendam como as decisões são tomadas. A disposição dos candidatos em aceitar a IA, desde que associada a práticas éticas, sugere que o problema não é a tecnologia, mas sua implementação. A confiança emerge como fator decisivo para a aceitação social da IA no recrutamento.
A análise de social listening das 6.992 menções públicas validou e amplificou os achados. A distribuição de sentimento revelou uma polarização, com 2,5 menções negativas para cada menção positiva (26,6% negativas contra 10,5% positivas). Essa assimetria no discurso espontâneo corrobora a desconfiança e frustração expressas pelos participantes. A análise de palavras-chave mostrou que as discussões se concentram em etapas práticas como “entrevista” e “triagem”, indicando preocupações concretas ligadas a experiências reais.
A triangulação dos dados confirmou uma desconexão crítica: enquanto profissionais de RH focam no potencial de eficiência da IA, candidatos e o público geral focam nas falhas de equidade e transparência. A falta de governança algorítmica, identificada nas respostas do RH, ecoa nas queixas públicas sobre “algoritmos que discriminam” e “exclusão injusta”. Este desalinhamento entre a intenção organizacional e a percepção do usuário representa um risco reputacional para as empresas, podendo afetar a marca empregadora (Chamorro-Premuzic et al., 2021). A análise demonstra que organizações que implementam IA sem transparência enfrentam pressão social e risco de danos à sua reputação.
Os resultados reforçam a necessidade de os profissionais de RH assumirem um papel mais ativo e ético. A convergência dos dados indica que a responsabilidade de monitorar os sistemas de IA para garantir equidade é uma necessidade prática para manter a legitimidade dos processos seletivos. Como defendem Varma et al. (2023), o profissional de RH deve ser o guardião da justiça no processo, garantindo que a tecnologia aprimore a decisão, e não substitua o julgamento humano. A superação do paradoxo da competência analítica (Diefenhardt et al., 2024) através de capacitação técnica é fundamental para que o RH cumpra essa função.
A pesquisa revelou que a implementação da IA no recrutamento é complexa, marcada por uma divergência de percepções. De um lado, o otimismo dos profissionais de RH, focado na eficiência; do outro, a desconfiança e a sensação de injustiça por parte dos candidatos, amplificadas pelo debate público. Esta lacuna é alimentada por falhas na governança algorítmica, falta de transparência nos critérios e carência de competências técnicas nas equipes de RH para gerenciar essas ferramentas de forma responsável.
As implicações práticas deste estudo são claras: para que a IA seja positiva no recrutamento, as organizações precisam ir além da implementação tecnológica. É imperativo investir em políticas de governança algorítmica, que incluam auditorias de viés e a adoção de IA explicável. A capacitação técnica das equipes de RH é crucial, permitindo que participem do desenho, validação e monitoramento dos sistemas. Acima de tudo, a transparência com os candidatos deve ser a base de qualquer processo automatizado, comunicando como a tecnologia é utilizada e quais critérios são considerados. Somente através de uma abordagem que equilibre inovação com responsabilidade ética será possível construir processos seletivos eficientes, justos, transparentes e humanizados. Conclui-se que o objetivo foi atingido: demonstrou-se a profunda assimetria entre as expectativas organizacionais sobre a eficiência da IA no recrutamento e a percepção social negativa, marcada pela desconfiança e pela falta de equidade percebida pelos candidatos.
Referências:
ANGRAVE, D.; CHARLWOOD, A.; KIRKPATRICK, I.; LAWRENCE, M.; STUART, M. HR and analytics: why HR is set to fail the big data challenge. Human Resource Management Journal, v. 26, n. 1, p. 1–11, 2016.
BAROCAS, S.; SELBST, A. D. Big data’s disparate impact. California Law Review, v. 104, n. 3, p. 671–732, 2016.
BINNS, R. Fairness in machine learning: lessons from political philosophy. Proceedings of the 2018 Conference on Fairness, Accountability and Transparency (FAT ’18), p. 149–159, 2018.
CHAMORRO-PREMUZIC, T.; AKHTAR, R.; WINSBORROW, T. The future of recruitment: how AI and big data will transform the global talent pool. Harvard Business Review Press, 2021.
DIEFENHARDT, F.; RAPP, M. L.; BADER, V.; MAYRHOFER, W. In God we trust. All others must bring data: unpacking the influence of human resource analytics on the strategic recognition of human resource management. Human Resource Management Journal, 2024.
FERREIRA, A. I. et al. Artificial intelligence in recruitment and selection: a systematic review. International Journal of Selection and Assessment, v. 29, n. 1, p. 5–20, 2021.
LEITE, D. A. F.; MESQUITA, M. M. Utilização de inteligência artificial como fator de discriminação indireta na fase pré-contratual. Revista do TRT 18ª Região, 2019.
LEICHT-DEOBALD, U. et al. The challenges of algorithm-based HR decision-making for personal integrity. Journal of Business Ethics, v. 160, n. 2, p. 377–392, 2019.
MARLER, J. H.; BOUDREAU, J. W. An evidence-based review of HR Analytics. International Journal of Human Resource Management, v. 28, n. 1, p. 3–26, 2017.
REIS, C. E.; GRAMINHO, F. M. C. Governança de dados e inteligência artificial: diretrizes para o setor público brasileiro. Texto para Discussão IPEA, n. 2776, 2022.
SANTOS, K. S. et al. O uso de triangulação múltipla como estratégia de validação em um estudo qualitativo. Ciência & Saúde Coletiva, v. 25, n. 2, p. 655–664, 2020.
STUDART, D. M.; MARTINEZ, L. F. O poder diretivo algorítmico e o People Analytics. Revista Brasileira de Direito do Trabalho, v. 5, n. 2, p. 122–140, 2023.
TODOLÍ SIGNES, A. Algorithms, artificial intelligence and automated decisions concerning workers and the risks to collective labour rights. Transfer: European Review of Labour and Research, v. 25, n. 3, p. 335–348, 2019.
VARMA, A. et al. Artificial intelligence and people management: a critical assessment through the ethical lens. Human Resource Management Review, v. 33, 2023.
Resumo executivo oriundo de Trabalho de Conclusão de Curso de Especialização em Gestão de Pessoas do MBA USP/Esalq
Saiba mais sobre o curso; clique aqui:





































