Inteligencia artificial y reclutamiento laboral: ¿avance tecnológico o nuevo riesgo para la igualdad?

Introducción

La transformación digital ha alcanzado de manera decisiva el ámbito de los recursos humanos. Actualmente, numerosas organizaciones utilizan sistemas de inteligencia artificial (IA) para filtrar currículos, evaluar perfiles y priorizar candidatos. Estas herramientas ofrecen ventajas evidentes en términos de rapidez y reducción de costos.

No obstante, su implementación ha generado preocupaciones jurídicas relevantes. En el Perú, el principio de igualdad reconocido en el artículo 2 de la Constitución exige que todo postulante sea evaluado sin discriminación. El problema surge cuando los algoritmos, lejos de ser neutrales, reproducen sesgos históricos presentes en los datos con los que fueron entrenados.

La discriminación algorítmica en el reclutamiento

La evidencia comparada demuestra que la llamada discriminación algorítmica constituye una realidad verificable. Los sistemas de aprendizaje automático tienden a replicar patrones históricos contenidos en sus bases de datos.

Un caso emblemático fue el sistema de reclutamiento de Amazon (2018), que penalizaba a postulantes mujeres para puestos tecnológicos debido al sesgo presente en los datos de entrenamiento. Este supuesto configura un caso de discriminación indirecta.

Marco normativo peruano: avances y desafíos

El Perú ha dado un paso significativo con la aprobación del Reglamento de la Ley 31814 (DS 115-2025-PCM), que califica como de riesgo alto el uso de IA en procesos de reclutamiento, evaluación y contratación laboral.

La norma introduce obligaciones relevantes como la supervisión humana significativa, las evaluaciones de impacto y los deberes de transparencia. Sin embargo, la regulación aún carece de parámetros técnicos específicos para la auditoría algorítmica.

Transparencia y explicabilidad: el núcleo del problema

La transparencia meramente informativa resulta insuficiente. Informar al postulante que se utiliza IA no garantiza por sí mismo el respeto del derecho a la igualdad. Lo determinante es la transparencia explicativa, entendida como la posibilidad real de que el candidato conozca las razones de una decisión adversa.

La ausencia de explicabilidad limita el derecho de defensa, impide cuestionar decisiones automatizadas y debilita la tutela efectiva.

Responsabilidad empresarial y test de proporcionalidad

Desde la perspectiva de derechos fundamentales, la discriminación algorítmica no exonera al empleador. La responsabilidad recae principalmente en la empresa usuaria del sistema y en los desarrolladores de la herramienta.

En este escenario, el test de proporcionalidad se presenta como el mecanismo idóneo para evaluar la legitimidad del uso de IA en el ámbito laboral.

Propuestas para un reclutamiento algorítmico compatible

Para las empresas:

  • Implementar auditorías algorítmicas periódicas.
  • Utilizar datasets representativos y diversos.
  • Garantizar supervisión humana efectiva.
  • Documentar los criterios automatizados de selección.

Para el legislador y la autoridad administrativa:

  • Establecer estándares técnicos obligatorios.
  • Regular la explicabilidad de los algoritmos.
  • Fortalecer la fiscalización del uso de IA en el empleo.
  • Promover guías éticas sectoriales.

Conclusiones

La inteligencia artificial no es, por sí misma, incompatible con el principio de igualdad. No obstante, su uso irreflexivo o carente de controles puede amplificar desigualdades estructurales bajo una apariencia de objetividad tecnológica.

El desafío del derecho laboral contemporáneo consiste en armonizar innovación y derechos fundamentales, asegurando que la revolución algorítmica no se traduzca en nuevas formas de discriminación en el acceso al empleo.

Referencias bibliográficas

Rázuri, J., & Aguilar, M. (2025). La inteligencia artificial, los sesgos del algoritmo y la discriminación en las relaciones laborales. Revista Laborem, 5(2), 45–62.

Pontificia Universidad Católica del Perú. (2024). La inteligencia artificial y las relaciones laborales. Revista Ius et Veritas, 64, 123–140.

Barocas, S., Hardt, M., & Narayanan, A. (2019). Fairness and machine learning: Limitations and opportunities. MIT Press.

Bogen, M., & Rieke, A. (2020). Help wanted: An examination of hiring algorithms, equity, and bias. Upturn.

OECD. (2021). Artificial intelligence in society. OECD Publishing. UNESCO. (2021). Marco de ética para la inteligencia artificial. https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa


Relacionados
Marcos Suclupe Mendoza: Asociado del Estudio Elias Mantero, Abogado por la Universidad de San Martín de Porres. Maestro en Derecho del Trabajo, colaborador permanente de la Revista Actualidad Laboral.