
El miedo a que las herramientas de contratación con IA acumulen sesgo es legítimo — hay casos bien publicitados donde lo hicieron. Pero eso no es una propiedad de la IA; es una propiedad de datos de entrenamiento malos y diseño de producto perezoso. Bien hecho, el cribado con IA reduce el sesgo en comparación con la revisión solo humana.
Tres cosas tienen que ser ciertas para que eso funcione: el modelo tiene que ser ciego a atributos protegidos, el sistema tiene que hacer surface de explicaciones de cada decisión y el equipo tiene que correr auditorías de adverse-impact trimestrales. Sáltate cualquiera y vuelves a estar en humano-o-peor.
La mayoría de plataformas modernas de contratación con IA soportan un 'modo ciego' que quita nombre, foto, edad, género y ubicación de la vista de cribado. Actívalo. El sesgo pass-through de esos features es el modo de fallo más grande para la contratación con IA.
Predeciblemente, los reclutadores a menudo se resisten — están acostumbrados a ver nombres. Empuja. Los datos son abrumadores: el cribado ciego hace surface de un 25–40 % más de candidatos de grupos infrarrepresentados sin bajar la calidad de hire.
La regla 4/5 de EEOC es el suelo regulatorio: la tasa de pase de un grupo protegido no debería caer por debajo del 80 % de la tasa del grupo con mayor pase. HRBlade autoejecuta este análisis en cada requisición; si usas otra plataforma, haz las cuentas a mano con R o Python y un CSV descargado.
Cuando encuentres adverse impact, la respuesta no es bajar el listón — es entender qué features impulsaron la disparidad. El tooling moderno de IA proporciona explicabilidad por decisión (el Artículo 22 del GDPR lo exige). Quita features sesgados, reentrena, vuelve a auditar.

