Tres de cada cinco gerentes de personas ahora confían en la IA para tomar las decisiones más urgentes sobre sus subordinados directos, no solo las tareas administrativas básicas.

por Tony Case

Según el servicio de currículum Resume Builder, el 78% utiliza IA para determinar los aumentos, el 77% para los ascensos, el 66% para los despidos y el 64% para los despidos. Además, 1 de cada 5 gerentes con frecuencia deja que la IA tome decisiones finales sin ningún tipo de intervención humana.

La rápida adopción de la IA en la gestión de personas representa un cambio fundamental en la forma en que se toman las decisiones en el lugar de trabajo, pero como sugieren los números, está sucediendo en gran medida sin las barreras adecuadas. La encuesta de Resume Builder a 1,342 gerentes de personas en los EE. UU. reveló que los dos tercios que usan IA para administrar empleados nunca recibieron capacitación formal en IA, incluso cuando casi la mitad tiene la tarea de evaluar si la IA podría reemplazar a los subordinados directos por completo.

“Es esencial no perder a las ‘personas’ en la gestión de personas”, dice Stacie Haller, asesora principal de carrera de Resume Builder. “Si bien la IA puede respaldar conocimientos basados en datos, carece de contexto, empatía y juicio. Los resultados de la IA reflejan los datos que se le dan, que pueden ser defectuosos, sesgados o manipulados”.

Stacie Haller, asesor principal de carrera, Resume Builder

Las empresas han alentado a los gerentes de personas a utilizar la IA para aumentar la eficiencia, permitir una toma de decisiones más rápida, reducir los gastos generales y respaldar información basada en datos que mejore la productividad y la escalabilidad. Sin embargo, la prisa por automatizar está desenterrando riesgos completamente nuevos que las organizaciones pueden no haber considerado completamente.

Cleo Valeroso, vicepresidenta de personas de AI Squared, una empresa que ayuda a las organizaciones a integrar la IA en sus operaciones, ha visto ese desafío de primera mano. “Cuando los gerentes usan IA sin comprender cómo funciona o dónde puede salir mal, tienden a confiar en el proceso”, dice.

Uno de los problemas más comunes que ha visto Valeroso es la fe ciega en la selección o clasificación de currículums. Por ejemplo, un sistema o herramienta de IA arrojará una lista de los 10 mejores candidatos, que luego se convierte en la lista corta. “Nadie cuestiona cómo se generó la lista, qué datos priorizó o de qué patrones aprendió”, explica.

Ese tipo de cosas pueden perpetuar los prejuicios de maneras que no son inmediatamente obvias. Por ejemplo, Valeroso describe haber visto que los algoritmos de contratación priorizan constantemente a los candidatos con ciertos títulos de trabajo o empleadores, excluyendo a aquellos que tomaron trayectorias profesionales alternativas pero difícilmente descalificadoras. “Estas herramientas son tan buenas como los datos con los que están entrenadas”, dice. “Si los datos históricos dicen: ‘Así es como se ve un actor fuerte’, el sistema imitará eso, con fallas y todo”.

“Cuando los gerentes usan IA sin comprender cómo funciona o dónde puede salir mal, tienden a confiar en el proceso”.

Cleo Valeroso, Vicepresidente de RRHH, AI Squared

La solución no es abandonar la IA, sino abordarla con el mismo pensamiento crítico que se aplicaría a cualquier otra herramienta empresarial, según los expertos. “No le daría a alguien un modelo financiero y le diría que apruebe un presupuesto sin comprender las suposiciones”, dice Valeroso. “La misma lógica se aplica aquí. Si no invertimos en capacitación, solo estamos subcontratando el juicio, y eso nunca termina bien”.

Si bien los empleadores, por temor a la responsabilidad legal o al rechazo de los empleados, pueden resistirse a la transparencia sobre su uso de la IA, Valeroso argumenta que eso también puede ser contraproducente. “El mayor riesgo proviene de no decir nada”, dice. “El silencio crea confusión, y la confusión conduce a la desconfianza. Y una vez que pierdes la confianza de los empleados, es algo mucho más difícil y costoso de reconstruir”.

La comunicación efectiva no requiere revelar todos los detalles técnicos, pero sí significa poder responder preguntas básicas sobre cómo se usa la IA y asegurarse de que los empleados sepan que las personas reales permanecen informadas para tomar decisiones importantes. Como advierte Valeroso, “Cuando las empresas no comunican esto de manera proactiva, los empleados llenarán los espacios en blanco ellos mismos, a menudo con suposiciones en el peor de los casos”.

Como explica Haller, “las organizaciones tienen la responsabilidad de implementar la IA de manera ética para evitar responsabilidades legales, proteger su cultura y mantener la confianza entre los empleados”.

Fuente: https://www.worklife.news/technology/most-managers-use-ai-for-their-top-personnel-decisions-heres-why-thats-a-problem/

Deja una respuesta