La tecnología puede ser una gran aliada en la gestión del talento, pero, sin supervisión, también puede reforzar desigualdades históricas.
La Inteligencia Artificial (IA) ha transformado radicalmente la forma en que muchas empresas reclutan, seleccionan y desarrollan a sus talentos. Desde hace algunos años, herramientas automatizadas se encargan de filtrar currículums con mayor agilidad, identificar perfiles prometedores e incluso predecir el desempeño de colaboradores.
En teoría, suena como un avance tecnológico extraordinario, capaz de aportar eficiencia y precisión a los equipos de Recursos Humanos. Sin embargo, la automatización total de las tareas del área también puede ocultar un riesgo importante: la reproducción, e incluso amplificación, de desigualdades históricas ya presentes en el mercado laboral.
En un contexto altamente competitivo, empresas de todos los tamaños buscan automatizar procesos de selección, reducir los tiempos de contratación y tomar decisiones basadas en datos. Después de todo, nadie quiere perder tiempo ni dinero. Pero al aplicar algoritmos de forma exclusiva para evaluar personas, sin supervisión humana frecuente, estos sistemas corren el riesgo de aprender a partir de datos sesgados.
Los algoritmos son tan imparciales como los datos con los que son entrenados. Y si esos datos reflejan prácticas históricamente excluyentes, los sistemas tienden a replicar esos patrones, muchas veces de manera más sutil y difícil de detectar.
Un ejemplo clásico es el de los sistemas de filtrado de currículums basados en contrataciones anteriores. Si, históricamente, una empresa ha contratado principalmente a hombres blancos de ciertas universidades o regiones, la IA puede aprender a valorar esos perfiles por encima de otros, como mujeres, personas negras, con discapacidad o de contextos socioeconómicos diversos.
En ese proceso, muchas candidaturas son descartadas incluso antes de llegar a la entrevista. Y lo más grave es que esto puede suceder sin que nadie note que hay un sesgo operando en el sistema.
Los errores pueden surgir en tres momentos distintos del ciclo de vida de un sistema de IA:
Estos factores pueden manifestarse en distintas etapas, desde el reclutamiento hasta la evaluación de desempeño, pasando por las políticas de remuneración y beneficios..
La inteligencia artificial, bien aplicada, tiene el potencial de transformar positivamente la gestión del talento. Puede ayudar a identificar tendencias, mapear competencias y respaldar decisiones estratégicas basadas en datos (people analytics). Sin embargo, si se aplica sin un control ético sólido, también puede representar riesgos importantes para la sociedad en general. Entre los principales desafíos de su uso en HR. están:
Otro punto crítico es la poca claridad de muchos sistemas automatizados. Muchos de los algoritmos que hoy utilizan los equipos de HR no son transparentes respecto a los criterios que utilizan para tomar decisiones, lo que dificulta cuestionar los resultados o corregir posibles injusticias.
Si una persona es descartada por un algoritmo, ¿cómo saber si la decisión fue justa? Sin esa comprensión, no hay espacio para la rendición de cuentas ni para la mejora continua del proceso.
Entonces, ¿cómo avanzar con responsabilidad sin renunciar a la inteligencia artificial? La tecnología puede, y debe, ser una aliada en la construcción de entornos más justos e inclusivos. Pero, para lograrlo, es fundamental que el uso de la IA en procesos de HR esté guiado por criterios éticos, buenas prácticas y supervisión constante.
Algunas recomendaciones incluyen:
Con la IA avanzando y expandiéndose a pasos acelerados, mostrándonos nuevas posibilidades cada día, ya no quedan dudas de que la tecnología debe caminar de la mano con los valores humanos. El uso de la IA en la gestión del talento es una tendencia irreversible, pero su impacto dependerá de las decisiones que tomemos hoy. Sin una estrategia clara para detectar y corregir sesgos discriminatorios, corremos el riesgo de consolidar prácticas injustas que limiten la diversidad y perpetúen desigualdades.
La IA puede, y debe, ser una herramienta poderosa para los profesionales de HR, pero no es neutral. Por eso, se requiere una mirada crítica, consciente y comprometida con la inclusión. El futuro del trabajo será cada vez más tecnológico, pero también debe ser más justo.