La IA en Recursos Humanos avanza aceleradamente. Empresas de todo el mundo han apostado por algoritmos que prometen eficiencia y objetividad en contratación, evaluación y control laboral. Sin embargo, como advierte la OCDE, “los sistemas de IA deben respetar los derechos humanos, los valores democráticos y promover un crecimiento inclusivo” (OECD, 2019).
Los casos de Amazon, HireVue, Uber o Microsoft muestran que la promesa de neutralidad algorítmica puede ocultar riesgos de discriminación, erosión de la privacidad y pérdida de confianza en el lugar de trabajo.
Más artículos del autor
Reclutamiento y sesgos invisibles
Caso real: Amazon (2018). La compañía desarrolló un sistema para filtrar currículums, pero fue cancelado porque penalizaba de forma sistemática a las mujeres. Reuters documentó que el modelo “aprendió” de historiales de contrataciones previas, dominados por hombres, lo que llevó a sesgos de género evidentes (Dastin, 2018).
Ejemplo similar: LinkedIn (2020) reconoció que sus sistemas de recomendación mostraban más puestos de alto nivel a hombres que a mujeres, lo que los llevó a ajustar el algoritmo (BBC News, 2020).
Riesgo: Los algoritmos reflejan desigualdades históricas y cierran oportunidades en lugar de abrirlas.
Acción: Auditorías externas de sesgo y uso de métricas de equidad como KPI.
Evaluaciones y despidos automatizados
Caso real: Uber y Deliveroo. Investigaciones en Europa documentaron que estas plataformas desactivaban automáticamente a conductores o repartidores tras “malas evaluaciones” o métricas bajas, sin posibilidad de apelación inmediata. El Tribunal de Ámsterdam falló en 2021 que estas decisiones eran ilegales, recordando que el RGPD (art. 22) protege contra despidos automatizados (The Guardian, 2021).
Otro caso: IKEA Francia (2020) implementó herramientas de medición digital de desempeño que fueron cuestionadas por sindicatos, alegando que reducían al trabajador a métricas impersonales.
Riesgo: Decisiones “caja negra” que ignoran contextos (enfermedad, permisos, tareas invisibles).
Acción: Revisión humana obligatoria antes de despidos y canales de apelación accesibles.
Contratación y explicabilidad
Caso real: HireVue (EE. UU., 2019). Esta empresa de software analizaba microexpresiones faciales y tonos de voz en entrevistas grabadas para puntuar candidatos. Tras denuncias por sesgo y falta de transparencia, la Electronic Privacy Information Center (EPIC) presentó una queja ante la Comisión Federal de Comercio. HireVue terminó eliminando la parte de análisis facial en 2021 (Washington Post, 2021).
Riesgo: Discriminación encubierta y falta de explicaciones significativas.
Acción: Interpretabilidad obligatoria y derecho del candidato a conocer criterios de exclusión.
Vigilancia algorítmica y salud mental
Caso real: Microsoft 365 Productivity Score (2020). Este sistema asignaba puntuaciones de productividad a empleados midiendo correos, chats y actividades en línea. Tras críticas por “microvigilancia”, Microsoft debió modificar la herramienta para anonimizar datos individuales (Financial Times, 2020).
Otro ejemplo: Barclays Bank (Reino Unido, 2020) instaló software que monitorizaba en tiempo real la productividad de los empleados en oficina. Tras denuncias por violación de privacidad, el banco abandonó el sistema (BBC News, 2020).
Riesgo: erosión de confianza, ansiedad y agotamiento laboral.
Acción: establecer límites claros a la vigilancia y realizar auditorías de impacto psicológico.
Ética y Doctrina Social: personas primero
La Doctrina Social de la Iglesia recuerda que “el trabajo humano es un derecho fundamental y constituye la clave esencial de toda la cuestión social” (Juan Pablo II, Laborem exercens, 1981, n. 3). La vigilancia excesiva, los despidos automáticos o los sesgos invisibles contradicen este principio.
El RGPD también protege el derecho a no ser objeto de decisiones totalmente automatizadas (art. 22). La UNESCO (2021) enfatiza que “los sistemas de IA deben ser auditables y trazables”.
En síntesis: eficiencia sí, pero nunca a costa de la dignidad y de la justicia laboral.
Conclusión: gobernar la IA en el trabajo
Los casos reales muestran que la IA en Recursos Humanos es una tecnología de alto riesgo. Puede ampliar oportunidades solo si cumple cuatro condiciones mínimas:
1. Supervisión humana significativa.
2. Transparencia y explicabilidad.
3. Derecho a apelación y revisión justa.
4. Auditorías éticas y de impacto en salud.
Como resume Floridi: “Ninguna IA es neutral; toda tecnología refleja valores y supuestos que deben examinarse críticamente” (2019, p. 157).
La verdadera innovación no consiste en decidir más rápido, sino en decidir mejor: con justicia, equidad y respeto a la dignidad humana.
Les invito a ver el video de “Laicos en la Vida Pública” sobre este tema:
Referencias
Ajunwa, I. (2021). The Quantified Worker: Law and Technology in the Modern Workplace. Cambridge University Press.
Barocas, S., & Selbst, A. D. (2016). Big Data’s disparate impact. California Law Review, 104(3), 671–732.
Dastin, J. (2018). Amazon scraps secret AI recruiting tool that showed bias against women. Reuters.
Financial Times. (2020). Microsoft retreats on controversial productivity score.
Floridi, L. (2019). The Logic of Information: A Theory of Philosophy as Conceptual Design. Oxford University Press.
International Labour Organization (OIT). (2021). The role of algorithms in the workplace. Geneva: ILO.
Juan Pablo II. (1981). Laborem exercens. Vaticano.
Lipton, Z. C. (2018). The mythos of model interpretability. Communications of the ACM, 61(10), 36–43.
OECD. (2019). OECD Principles on Artificial Intelligence. OECD Publishing.
The Guardian. (2021). Uber drivers win landmark case against algorithmic management.
Unión Europea. (2016). Reglamento General de Protección de Datos (RGPD). Diario Oficial de la Unión Europea.
Washington Post. (2021). HireVue drops facial analysis after criticism of its AI hiring tool.