Nulinga Blog

IA y desigualdad en HR: cuando la automatización refuerza prejuicios

Escrito por Autor 1 | Jun 6, 2025 4:05:48 AM

La tecnología puede ser una gran aliada en la gestión del talento, pero, sin supervisión, también puede reforzar desigualdades históricas.

La Inteligencia Artificial (IA) ha transformado radicalmente la forma en que muchas empresas reclutan, seleccionan y desarrollan a sus talentos. Desde hace algunos años, herramientas automatizadas se encargan de filtrar currículums con mayor agilidad, identificar perfiles prometedores e incluso predecir el desempeño de colaboradores.

En teoría, suena como un avance tecnológico extraordinario, capaz de aportar eficiencia y precisión a los equipos de Recursos Humanos. Sin embargo, la automatización total de las tareas del área también puede ocultar un riesgo importante: la reproducción, e incluso amplificación, de desigualdades históricas ya presentes en el mercado laboral.

En un contexto altamente competitivo, empresas de todos los tamaños buscan automatizar procesos de selección, reducir los tiempos de contratación y tomar decisiones basadas en datos. Después de todo, nadie quiere perder tiempo ni dinero. Pero al aplicar algoritmos de forma exclusiva para evaluar personas, sin supervisión humana frecuente, estos sistemas corren el riesgo de aprender a partir de datos sesgados.

El riesgo de los procesos automatizados en el reclutamiento

Los algoritmos son tan imparciales como los datos con los que son entrenados. Y si esos datos reflejan prácticas históricamente excluyentes, los sistemas tienden a replicar esos patrones, muchas veces de manera más sutil y difícil de detectar.

Un ejemplo clásico es el de los sistemas de filtrado de currículums basados en contrataciones anteriores. Si, históricamente, una empresa ha contratado principalmente a hombres blancos de ciertas universidades o regiones, la IA puede aprender a valorar esos perfiles por encima de otros, como mujeres, personas negras, con discapacidad o de contextos socioeconómicos diversos.

En ese proceso, muchas candidaturas son descartadas incluso antes de llegar a la entrevista. Y lo más grave es que esto puede suceder sin que nadie note que hay un sesgo operando en el sistema.

Los errores pueden surgir en tres momentos distintos del ciclo de vida de un sistema de IA:

  • En la programación, cuando los datos utilizados son poco representativos o cuando las reglas del sistema no consideran la diversidad de perfiles.
  • En el aprendizaje, con ponderaciones inadecuadas de los atributos analizados y sus correlaciones con los objetivos del algoritmo.
  • En la interpretación, cuando los resultados se leen fuera de contexto o se aplican de forma demasiado simplificada.

Estos factores pueden manifestarse en distintas etapas, desde el reclutamiento hasta la evaluación de desempeño, pasando por las políticas de remuneración y beneficios..

Oportunidades y riesgos para Recursos Humanos

La inteligencia artificial, bien aplicada, tiene el potencial de transformar positivamente la gestión del talento. Puede ayudar a identificar tendencias, mapear competencias y respaldar decisiones estratégicas basadas en datos (people analytics). Sin embargo, si se aplica sin un control ético sólido, también puede representar riesgos importantes para la sociedad en general. Entre los principales desafíos de su uso en HR. están:

  • Invisibilización de grupos vulnerables, debido a la falta de datos representativos en los sistemas.
  • Datos demográficos limitados, con un enfoque excesivo en variables como género y edad, dejando de lado otras dimensiones de la diversidad.
  • Retrocesos en inclusión, si los algoritmos refuerzan patrones discriminatorios ya presentes en las organizaciones.
  • Desigualdad entre empresas, ya que las grandes corporaciones suelen tener más recursos para desarrollar soluciones de IA con supervisión ética, mientras que las pequeñas y medianas adoptan sistemas preconfigurados, sin adaptaciones.

Falta de transparencia y responsabilidad en el uso de IA

Otro punto crítico es la poca claridad de muchos sistemas automatizados. Muchos de los algoritmos que hoy utilizan los equipos de HR no son transparentes respecto a los criterios que utilizan para tomar decisiones, lo que dificulta cuestionar los resultados o corregir posibles injusticias.

Si una persona es descartada por un algoritmo, ¿cómo saber si la decisión fue justa? Sin esa comprensión, no hay espacio para la rendición de cuentas ni para la mejora continua del proceso.

Entonces, ¿cómo avanzar con responsabilidad sin renunciar a la inteligencia artificial? La tecnología puede, y debe, ser una aliada en la construcción de entornos más justos e inclusivos. Pero, para lograrlo, es fundamental que el uso de la IA en procesos de HR esté guiado por criterios éticos, buenas prácticas y supervisión constante.

Algunas recomendaciones incluyen:

  • Realizar auditorías frecuentes a los sistemas para identificar y corregir posibles discriminaciones.
  • Garantizar transparencia en los criterios de selección utilizados por las herramientas automatizadas.
  • Formar equipos diversos para el desarrollo y aplicación de la IA, promoviendo múltiples perspectivas.
  • Mantener el juicio humano como parte esencial del proceso, especialmente en las etapas decisivas.

El futuro del trabajo con IA debe ser más justo

Con la IA avanzando y expandiéndose a pasos acelerados, mostrándonos nuevas posibilidades cada día, ya no quedan dudas de que la tecnología debe caminar de la mano con los valores humanos. El uso de la IA en la gestión del talento es una tendencia irreversible, pero su impacto dependerá de las decisiones que tomemos hoy. Sin una estrategia clara para detectar y corregir sesgos discriminatorios, corremos el riesgo de consolidar prácticas injustas que limiten la diversidad y perpetúen desigualdades.

La IA puede, y debe, ser una herramienta poderosa para los profesionales de HR, pero no es neutral. Por eso, se requiere una mirada crítica, consciente y comprometida con la inclusión. El futuro del trabajo será cada vez más tecnológico, pero también debe ser más justo.