
A tecnologia pode ser uma aliada poderosa na gestão de pessoas, mas, sem supervisão, também pode reforçar desigualdades históricas.
A Inteligência Artificial (IA) transformou radicalmente a forma como grande parte das empresas recruta, seleciona e desenvolve seus talentos. Ferramentas automatizadas há alguns anos passaram a ser responsáveis por filtrar currículos com mais agilidade, identificar perfis promissores e até prever o desempenho de colaboradores.
Na teoria, soa a um fantástico avanço tecnológico, capaz de trazer eficiência e precisão às equipes de Recursos Humanos. No entanto, a automatização total das tarefas da área também pode esconder um risco importante: a reprodução — e até amplificação — das desigualdades já existentes historicamente no mercado de trabalho.
Em um cenário de alta competitividade, empresas de todos os portes buscam automatizar processos seletivos, reduzir o tempo de contratação e tomar decisões baseadas em dados. Afinal, ninguém quer perder tempo e nem dinheiro. Mas, ao aplicar exclusivamente algoritmos para avaliar pessoas, sem supervisão humana frequente, esses sistemas correm o perigo de aprender a partir de dados enviesados.
O risco dos processos automatizados no recrutamento
Algoritmos são tão imparciais quanto os dados com os quais são treinados. E, se esses dados refletem práticas historicamente excludentes, os sistemas tendem a reproduzir esses padrões, muitas vezes de forma ainda mais sutil e difícil de detectar.
Um exemplo clássico é o de sistemas de triagem de currículos baseados em contratações passadas. Se, historicamente, uma empresa contratou majoritariamente homens brancos, de determinadas universidades ou regiões, a IA pode aprender a valorizar esses perfis em detrimento de outros, como mulheres, pessoas negras, com deficiência ou de origens socioeconômicas diversas.
Nesse processo, candidaturas são descartadas antes mesmo de chegar à etapa da entrevista. E o mais grave: isso pode ocorrer sem que ninguém perceba que há um viés operando no sistema.
Os erros podem surgir em três momentos diferentes do ciclo de vida de um sistema de IA:
- Na programação, quando os dados usados são pouco representativos ou quando as regras do sistema não consideram diversidade de perfis.
- No aprendizado, com ponderações inadequadas dos atributos analisados e suas correlações com os objetivos do algoritmo.
- Na interpretação, quando os resultados são lidos fora de contexto ou aplicados de maneira simplificada demais.
Esses atributos podem se manifestar em diversas etapas do RH, do recrutamento à avaliação de desempenho, passando por políticas de remuneração e benefícios.
Oportunidades e riscos para o RH
A inteligência artificial, quando bem aplicada, tem potencial para transformar positivamente a gestão de talentos. Pode ajudar a identificar tendências, mapear competências e apoiar decisões estratégicas com base em dados (people analytics). No entanto, se aplicada sem um sólido controle ético, também apresenta perigos para a sociedade de um modo geral. Entre os principais desafios da sua utilização em RH estão:
- Grupos vulneráveis invisibilizados, por falta de dados representativos nos sistemas.
- Dados demográficos limitados, com foco excessivo em variáveis como gênero e idade, deixando de fora outras dimensões da diversidade.
- Retrocesso na inclusão, caso os algoritmos reforcem padrões discriminatórios já presentes nas empresas.
- Desigualdade entre empresas, já que grandes corporações tendem a ter mais recursos para desenvolver soluções de IA com supervisão ética, enquanto pequenas e médias podem adotar sistemas pré-concebidos, sem adaptações.
Falta de transparência e responsabilidade no uso da IA
Outro ponto crítico é a pouca clareza dos sistemas automatizados. Muitos dos algoritmos usados hoje por equipes de RH não são transparentes sobre os critérios usados para tomar decisões, dificultando o questionamento de resultados e a correção de possíveis injustiças.
Se uma pessoa é descartada por um algoritmo, como saber se a decisão foi justa? Sem esse entendimento, não há espaço para a responsabilização nem para o aprimoramento contínuo do processo.
Então, como é possível avançar com responsabilidade sem precisar abrir mão da inteligência artificial? A tecnologia pode, e deve, ser uma aliada na construção de ambientes mais justos e inclusivos. Mas, para isso, é fundamental que o uso da IA nos processos de RH seja guiado por critérios éticos, boas práticas e supervisão constante.
Algumas recomendações incluem:
- Realizar auditorias frequentes nos sistemas para identificar e corrigir possíveis discriminações.
- Garantir transparência nos critérios de seleção utilizados por ferramentas automatizadas.
- Formar equipes diversas no desenvolvimento e aplicação de IA, promovendo múltiplas perspectivas.
- Manter o julgamento humano como parte essencial do processo, especialmente nas etapas decisivas.
O futuro do trabalho com IA precisa ser mais justo
Com a IA evoluindo e se expandido a passos cada vez mais rápidos, e nos mostrando novas possibilidades todos os dias, já não restam dúvidas de que a tecnologia deve caminhar lado a lado com os valores humanos. O uso da IA na gestão de talentos é uma tendência irreversível, mas seu impacto será determinado pelas escolhas que fazemos hoje. Sem uma estratégia clara para detectar e corrigir inclinações discriminatórias, corremos o risco de consolidar práticas injustas que limitam a diversidade e perpetuam desigualdades.
A IA pode — e deve — ser uma aliada poderosa dos profissionais de RH. Mas não é uma ferramenta neutra, por isso, é preciso um olhar crítico, consciente e comprometido com a inclusão. O futuro do trabalho será cada vez mais tecnológico, e precisa ser também mais justo.