A medida que la IA ingresa al proceso de contratación, las organizaciones deben equilibrar la eficiencia con la equidad auditando datos, revisando resultados y manteniendo a los humanos informados.

por Nick Kolakowski

Los especialistas en recursos humanos (RR. HH.) con exceso de trabajo aún están analizando hasta qué punto las herramientas de inteligencia artificial (IA) automatizan las partes más laboriosas de sus trabajos, como la selección de candidatos y las entrevistas iniciales. Según SHRM, solo el 28 % de los líderes de RR. HH. implementaban herramientas de IA generativa para octubre de 2024, aunque estudios posteriores indican una adopción más generalizada de la IA por parte de los empleados de RR. HH. 

Gracias a la presión del mercado y del liderazgo superior, la adopción de IA dentro de RR.HH. sin duda aumentará en los próximos años, lo que significa que estas organizaciones deben tomar medidas conscientes para reducir el sesgo en las herramientas de IA, o de lo contrario, los procesos de contratación de sus empresas corren el riesgo de quedar atrapados en una cámara de eco digital.

La posibilidad de herramientas de contratación con IA sesgadas es real. En un ejemplo notorio de 2014, Amazon entrenó un sistema de reclutamiento automatizado con una década de currículums enviados predominantemente por hombres, lo que provocó que desarrollara un sesgo contra las candidatas. Este es solo un ejemplo de cómo la IA distorsiona el proceso de contratación. Los líderes de RR. HH. interesados ​​en usar IA en sus procesos de contratación deben descubrir cómo construir un sistema basado en la confianza, la transparencia y la equidad, pero ¿cómo?

Cómo ser proactivo con las herramientas de IA de RR.HH. y los datos de capacitación

Los líderes de RR. HH. que buscan herramientas de IA inclusivas deberían diseñarlas con ese objetivo desde el principio. Los sistemas que reducen el sesgo hacen lo siguiente, según Nicole Fougere , creadora de SeekSuite, una plataforma modular de reclutamiento con IA que detecta sesgos:

  • Datos de entrenamiento de auditoría:  estos sistemas evalúan qué rasgos han sido recompensados ​​históricamente y por qué.
  • Predefinir señales de éxito en función de los requisitos del rol:  esto incluye habilidades técnicas imprescindibles, indicadores de desempeño y valores vinculados a los resultados, que se convierten en la base del modelo.
  • Tome decisiones transparentes:  esto ayuda a los equipos de contratación a ver y desafiar patrones que no tienen sentido.

“En la práctica, eso significa que los equipos de RR.HH. necesitan predefinir las señales de éxito antes de contratar personal”, añadió Fougere. 

Cómo preparar su organización para un sistema de contratación con IA

En general, implementar herramientas de contratación de IA exitosas implica realizar cambios en la organización y el flujo de trabajo. Aquí tienes algunos consejos de Doug Stephen , presidente de CGS Immersive, quien lideró el desarrollo de Cicero, una plataforma inmersiva de juegos de rol con IA diseñada para abordar de forma justa las carencias de habilidades blandas en la fuerza laboral:

  • Identificar a las partes interesadas: diversas partes interesadas de toda la empresa deben ayudar a definir métricas de éxito y ciclos de retroalimentación para cualquier sistema de RR.HH. de IA propuesto.
  • Establecer un equipo de revisión de sesgos: Este equipo podría incluir miembros con experiencia en RR. HH., DEI y otras áreas. Esto proporciona múltiples perspectivas si es necesario revisar un resultado de IA.
  • Documentar con frecuencia y de forma temprana: Documentar la procedencia de los datos de una IA, cómo se entrenan los modelos y los posibles problemas. Por ejemplo, si ciertos grupos están subrepresentados en los datos, es necesario corregirlos. 
  • Humanos en el circuito: insertar una revisión humana en cualquier proceso de IA de RR. HH. es fundamental, especialmente cuando se trata de decisiones importantes, como hacer que un especialista en RR. HH. humano evalúe y apruebe a cualquier candidato que encuentre un sistema de IA antes de pasar a la etapa del candidato. 
  • Pruebas en diferentes segmentos de usuarios: “Evalúe el rendimiento del sistema en diferentes grupos demográficos antes de la implementación completa”, sugirió Stephen. “¿Cambia la retroalimentación según a quién se evalúa? ¿El tono es justo y constructivo en general?”
  • Mecanismos de retroalimentación para estudiantes: Sería conveniente diseñar un sistema para que un candidato pueda dar su opinión si algo en el proceso de solicitud le parece extraño o injusto. Esto ayuda a generar confianza.

Las auditorías independientes del uso de herramientas de contratación con IA por parte de las empresas también son cruciales, y podrían convertirse pronto en un requisito legal, afirmó Fougere. Otras jurisdicciones podrían seguir el ejemplo de la ciudad de Nueva York, que aprobó una ley en 2023 que exige a los empleadores realizar auditorías externas de cualquier proceso de contratación o ascenso basado en IA y publicar los resultados.

Independientemente del resultado de esta situación legal, las empresas deberían considerar realizar sus propias auditorías internas con sus empleados. «Las auditorías periódicas deben ser más que una simple verificación de cumplimiento: deben ser procesos estructurados y continuos que evalúen tanto los datos como los resultados de los sistemas basados ​​en IA», afirmó Stephen. «Una clave es integrar las auditorías a lo largo de todo el ciclo de vida de la herramienta, no solo en el lanzamiento. Esto implica revisar el comportamiento de los modelos a medida que se incorporan nuevos datos y validar que el rendimiento se mantenga equitativo entre los diferentes grupos de usuarios».

Si bien muchos especialistas en RR.HH. se centran en los riesgos de la IA durante la contratación y la incorporación, también vale la pena examinar otros aspectos de la experiencia de los empleados , como la capacitación y las evaluaciones, donde también pueden aparecer sesgos.

“Para los sistemas de capacitación, especialmente aquellos centrados en habilidades blandas, esto implica evaluar cómo varía la retroalimentación según el género, la raza, la edad, la neurodiversidad e incluso los dialectos regionales o estilos de comunicación”, añadió Stephen. “El sesgo puede infiltrarse a través de algo tan sutil como el análisis de tono o el reconocimiento facial, por lo que las auditorías deben examinar los resultados y las suposiciones que los sustentan”.

¿Qué preguntas debería hacerles a los proveedores de herramientas de contratación de IA?

El problema con muchas herramientas de IA es que operan en una “caja negra”, sin forma de explicar cómo llegaron a una conclusión específica. Los líderes de RR. HH. deben tener esto en cuenta al seleccionar herramientas y buscar aquellas que muestren cómo un modelo de IA llegó a una decisión de contratación específica. Por ejemplo, una herramienta de IA transparente podría indicar que rechazó a un candidato en particular por no incluir tres habilidades imprescindibles en su currículum, lo que permitiría a un miembro del equipo de RR. HH. determinar si la decisión fue justa. 

Considere hacer preguntas a los proveedores de IA como estas: 

  • Proporcione la composición demográfica de sus datos de entrenamiento.
  • ¿Qué métricas de equidad específicas prueba?
  • ¿Su modelo es una “caja negra” o ofrece explicabilidad? 
  • A la luz del caso Workday , también vale la pena preguntar acerca de las disposiciones contractuales relativas a la responsabilidad y la indemnización por reclamos por discriminación a medida que esta área evoluciona.

Si bien existe mucha presión sobre los líderes de RR.HH. para implementar soluciones de IA lo más rápido posible, un enfoque mesurado ayuda a las empresas a evitar riesgos legales y de reputación.

“La equidad en la inteligencia artificial va más allá de las buenas intenciones”, afirmó Kelsey Szamet, de Kingsley Szamet Employment Lawyers. “Requiere establecer políticas y mecanismos de rendición de cuentas claros, así como una dedicación a la evaluación y mejora continuas que prioricen a los empleados. Las empresas que ignoran estos puntos no solo se enfrentan a posibles riesgos legales en el futuro, sino también a un daño a su reputación y pierden oportunidades para desarrollar una fuerza laboral verdaderamente inclusiva”.

Nota del editor: Algunas otras consideraciones a tener en cuenta al introducir IA en los procesos de RRHH:

Acerca del autor

Nick Kolakowski

La carrera de Nick en el periodismo tecnológico comenzó como freelance para The Washington Post, cubriendo gadgets y tecnología de consumo. Desde entonces, ha sido reportero para publicaciones tecnológicas B2B y B2C como eWeek, CIOInsight y Baseline, además de editor en Slashdot.org y Dice.com. 

Fuente: https://www.reworked.co/employee-experience/making-ai-hiring-tools-work-for-everyone/

Deja una respuesta