Desafios e oportunidades da IA em processos de recrutamento
Entre as consequências apontadas estão discriminação, redução da diversidade organizacional e desumanização da experiência
- Publicado: 13/02/2026
- Alterado: 28/07/2025
- Autor: Redação
- Fonte: Sorria!,
O uso crescente da inteligência artificial (IA) em processos de recrutamento tem sido amplamente reconhecido por suas vantagens, incluindo maior eficiência, padronização e redução de custos. No entanto, uma pesquisa realizada pela Universidade de São Paulo (USP) revela que essa tecnologia também traz à tona preocupações significativas, como o viés algorítmico, a discriminação e a diminuição da diversidade organizacional, além da desumanização das interações no processo seletivo. Essa transformação não apenas altera as dinâmicas do recrutamento, mas também redefine o papel dos recrutadores, que se tornam mais supervisores de sistemas do que decisores.
A pesquisa aponta que candidatos e selecionadores enfrentam efeitos emocionais e psicológicos adversos, exacerbados por barreiras culturais e linguísticas, especialmente em contextos globais — um exemplo disso é uma empresa alemã com subsidiárias no Brasil. A autora do estudo, Humberta Silva, destaca que “à medida que as empresas integram cada vez mais a tecnologia, ocorrem mudanças significativas na comunicação, comportamento e nas emoções dos indivíduos”.
Segundo Humberta Silva, a natureza não neutra da IA é um aspecto crítico a ser considerado. “Os algoritmos são moldados pelos preconceitos de seus programadores e pelos dados que os alimentam. Quando utilizados de forma acrítica ou automatizada, podem perpetuar desigualdades estruturais, como discriminações baseadas em gênero, raça ou classe social”, explica. Ela enfatiza a necessidade de uma supervisão humana cuidadosa na aplicação da IA e sugere uma abordagem ética que considere o contexto social e organizacional ao utilizar essas ferramentas tecnológicas.
Implicações para Stakeholders

No cenário atual, Humberta observa que a IA pode reforçar desigualdades existentes em vez de mitigá-las. “No Brasil, o acesso à tecnologia ainda é limitado e isso impacta diretamente a diversidade dentro das organizações”, afirma. Muitos candidatos entram em desvantagem devido à falta de acesso às informações ou à linguagem exigida pelos sistemas automatizados. Além disso, algoritmos muitas vezes utilizam critérios ocultos que resultam na exclusão sutil de candidatos. “Existem sistemas que avaliam se o candidato reside próximo ao local de trabalho ou se possui um histórico acadêmico específico”, alerta.
A profissão de recursos humanos (RH) também sofre transformações com a adoção da IA. “Os recrutadores podem começar a duvidar de sua capacidade de identificar habilidades sem auxílio tecnológico“, observa Humberta. O uso contínuo da IA pode levar a uma mudança no papel dos recrutadores para meros gerentes de sistemas, diminuindo sua autoconfiança e criando uma abordagem mecânica em relação ao processo seletivo. Para Humberta, é crucial adaptar os sistemas às realidades brasileiras e construir ferramentas com foco na inclusão. “O recrutamento é uma área estratégica para atrair diversidade”, alerta.
Propostas Éticas e Soluções

Uma das principais recomendações feitas pela pesquisadora é envolver profissionais de RH no desenvolvimento das ferramentas de IA. “A maioria dos sistemas é desenvolvida por programadores sem a participação direta do RH, o que representa um problema significativo”, afirma. Humberta propõe o codesign como uma estratégia eficaz para assegurar que os sistemas reflitam as realidades das organizações e da sociedade como um todo. “Um time diverso de programadores pode trazer diferentes perspectivas e ajudar a evitar vieses”, explica.
Ela também sugere a implementação de auditorias regulares para identificar correlações problemáticas entre os critérios utilizados nos algoritmos e variáveis como raça, gênero e classe social. “Uma empresa estabeleceu auditorias mensais onde o RH testa currículos reais e exige explicações dos programadores sobre os resultados“, relata. Esse tipo de controle é vital para assegurar justiça, transparência e responsabilidade no uso da IA. Além disso, a formação contínua dos profissionais envolvidos no processo seletivo é fundamental para garantir um uso ético e eficiente da tecnologia. “Esses profissionais precisam entender quando utilizar a IA e quais são suas limitações”, afirma Liliana Vasconcellos, professora na FEA e orientadora do estudo.
“Embora os profissionais de RH não desenvolvam tecnologias, eles devem saber como utilizar esses softwares eticamente”, afirma Liliana Vasconcellos.
Em resposta à necessidade identificada na pesquisa, Liliana lidera um projeto colaborativo entre diversas universidades focado em avaliar o letramento em inteligência artificial entre estudantes de Administração em quatro países: Brasil, Estados Unidos, Alemanha e Índia. O objetivo é compreender como as competências em IA estão sendo desenvolvidas durante o curso acadêmico. Além disso, ela criou uma ferramenta baseada em IA para auxiliar na elaboração de planos de desenvolvimento individual durante as avaliações dos funcionários técnicos-administrativos da USP.
A Pesquisa em Detalhes

A investigação realizada por Humberta Silva analisou os impactos da adoção da IA nos processos seletivos e as consequências indesejadas associadas a essa prática. Para isso, foram conduzidos três estudos interligados: uma revisão sistemática da literatura existente sobre o tema e dois estudos qualitativos — um com empresas e outro com as partes interessadas no processo seletivo (excluindo os candidatos). O objetivo foi contribuir com o corpo científico sobre práticas mais éticas e inclusivas.
No decorrer do estudo, a pesquisadora focou nos usuários das IAs (profissionais envolvidos na aquisição de talentos) ao invés dos candidatos ou dos softwares propriamente ditos, visando entender suas experiências no uso dessas ferramentas. Humberta também reconhece uma limitação qualitativa em sua pesquisa devido ao número restrito de empresas analisadas.
Para realizar suas análises qualitativas, ela utilizou o software ATLAS.ti em três frentes: primeiro analisou 52 artigos com codificação indutiva; no segundo estudo conduziu entrevistas semiestruturadas com empresas na Alemanha e suas subsidiárias no Brasil; finalmente, no terceiro estudo abordou experiências vividas no processo seletivo utilizando tanto análise temática dedutiva quanto indutiva através do mesmo software.
A tese intitulada A inteligência artificial no processo de seleção de pessoas: usos e consequências foi defendida no dia 6 de abril e será disponibilizada no Banco de Teses da USP.