La IA está transformando la contratación y los tribunales. Quienes buscan empleo están demandando por herramientas de selección sesgadas, y los expertos afirman que la ola de demandas apenas comienza.
Algo está sucediendo en la legislación laboral que debería preocupar a todo responsable de RR. HH. Arshon Harper solicitó unos 150 puestos de TI en Sirius XM Radio y fue rechazado en todos ellos. Afirma que el sistema de selección por inteligencia artificial de la empresa (iCIMS) rebajó la calificación de sus solicitudes basándose en la raza —posiblemente usando el código postal y las instituciones educativas como datos indirectos—, factores que no tienen relevancia para su capacidad para desempeñar los puestos. Por ello, ha presentado una demanda en un tribunal federal . Y su caso podría no ser un caso aislado.
¿Por qué?
Actualmente, quienes buscan empleo envían cientos de solicitudes al mes y muchos nunca reciben respuesta. Muchos creen que los algoritmos los ignoran antes de que un humano vea su currículum. Y cuando las personas solicitan 150 empleos y reciben 150 rechazos, empiezan a buscar patrones. Cuando esos patrones coinciden con su edad, raza o discapacidad, empiezan a buscar abogados.
Las demandas por discriminación en la contratación de IA se acumulan
Harper no es el único que se enfrenta a las herramientas de contratación basadas en IA. Esto es lo que ya se ha presentado:
Derek Mobley adoptó un enfoque diferente . Este hombre negro de 40 años, solicitante de empleo, había solicitado entre 80 y 100 empleos y fue rechazado en todos. Pero hay una peculiaridad: no demandó a los empleadores que lo rechazaron. Se enfrentó al proveedor de tecnología Workday , argumentando que sus herramientas de selección de personal con inteligencia artificial lo discriminaban por motivos de raza, edad y discapacidad.
El caso de Mobley pone a prueba una estrategia legal innovadora: las empresas tecnológicas podrían calificar como “agencias de empleo” según el Título VII de la Ley de Derechos Civiles , lo que las haría directamente responsables de discriminación. El caso avanzó en mayo cuando la jueza Rita Lin, del Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California, otorgó la certificación preliminar bajo la Ley contra la Discriminación por Edad en el Empleo (ADEA), lo que permitió que la demanda avanzara como una acción colectiva a nivel nacional. Si Mobley y sus colegas ganan, el caso cambia quién asume el riesgo legal: el empleador o el proveedor de software que proporciona las herramientas de selección de candidatos.
Aon Consulting enfrenta problemas con la ACLU por tres de sus herramientas de contratación. La demanda, presentada ante la FTC en mayo de 2024, argumenta que las herramientas de Aon, Adept15 , Vid-assess AI y ACLU gridChallenge, son discriminatorias contra personas con discapacidad y ciertos grupos raciales. La ACLU también cuestionó la afirmación de que las herramientas de Aon eran “libres de sesgos”. En otras palabras, que los proveedores digan que su IA es justa no significa que lo sea.
Intuit y HireVue están lidiando con cargos presentados ante la EEOC en marzo de 2025. Una solicitante indígena sorda alega que el software de video automatizado HireVue utilizado por Intuit no tenía subtítulos adecuados. Cuando solicitó adaptaciones CART , o soporte para subtítulos en tiempo real, la empresa supuestamente se lo denegó, lo que podría haber afectado sus resultados.
Este caso plantea una nueva pregunta: ¿Los requisitos de accesibilidad y adaptación se aplican a las herramientas de IA del mismo modo que se aplican a los entrevistadores humanos?
¿Por qué viene el diluvio?
La IA ha convertido la búsqueda de empleo en un juego de números. Antes, quienes buscaban empleo enviaban entre 10 y 20 solicitudes cuidadosamente elaboradas. Ahora envían 100, 200 y, a veces, 300 solicitudes semanales mediante herramientas automatizadas.
Como resultado, los empleadores recurrieron a la IA, explicó Karen Odash , abogada laboral del bufete Fisher Phillips: “Estas herramientas se volvieron necesarias para encontrar candidatos idóneos, ya que los empleadores reciben una gran cantidad de currículums”. Añadió que “las herramientas de IA pueden dar lugar a prácticas de contratación discriminatorias, incluso si son involuntarias”.
La combinación de solicitudes de empleo automatizadas y el uso de IA por parte de los empleadores para filtrar volúmenes masivos de solicitudes crea una situación ideal. Cuando alguien solicita cientos de empleos y es rechazado por sistemas automatizados cada vez, empieza a hacerse preguntas. ¿Acaso la IA lo rebajó de categoría porque estudió en una universidad históricamente afroamericana ? ¿Porque su código postal está en un barrio predominantemente minoritario? ¿Porque tiene más de 40 años y 20 años de experiencia laboral que el algoritmo interpreta como “sobrecualificado” ? ¿Porque necesita adaptaciones para una discapacidad?
Algunas de esas sospechas serán erróneas. Pero la experiencia demuestra que otras no lo serán. Herramientas automatizadas han seleccionado candidatos basándose en factores irrelevantes, como jugar lacrosse en la preparatoria o llamarse Jared . Han eliminado a candidatos calificados con discapacidades porque la IA interpretó rasgos como un bajo nivel de optimismo como señales de alerta.
Un estudio de la Universidad de Washington, publicado en 2024, aportó evidencia de sesgo sistemático en las herramientas de IA. Los investigadores probaron tres modelos de lenguaje de vanguardia de Salesforce, Mistral AI y Contextual AI con más de 500 ofertas de empleo. Variaron 120 nombres asociados con hombres y mujeres blancos y negros en sus currículums, generando más de tres millones de comparaciones.
Los resultados fueron inquietantes. Los sistemas favorecieron los nombres asociados a personas blancas el 85 % de las veces, frente a los nombres asociados a personas negras solo el 9 % (el 6 % eran otros). Los nombres asociados a personas masculinas se prefirieron el 52 % de las veces, frente a los nombres asociados a mujeres solo el 11 %. Pero los hallazgos interseccionales revelaron algo aún más inquietante: los sistemas nunca prefirieron los nombres asociados a personas negras masculinas sobre los asociados a personas blancas masculinas.
“Encontramos este daño realmente único contra los hombres negros que no era necesariamente visible al simplemente observar la raza o el género de forma aislada. La interseccionalidad es un atributo protegido en California en este momento, pero observar combinaciones multidimensionales de identidades es increíblemente importante para garantizar la imparcialidad de un sistema de IA”, dijo la investigadora principal, Kyra Wilson.
Esta investigación es importante porque estudió modelos de código abierto a gran escala, a diferencia de estudios previos a pequeña escala. Además, demuestra que los patrones de sesgo no son solo aditivos. El daño a los hombres negros, específicamente, crea disparidades que no se manifestarían si los empleadores solo evaluaran el sesgo racial o el sesgo de género por separado.
¿Quién es responsable cuando las herramientas de contratación de IA discriminan: empleadores o proveedores?
Cuando una herramienta de IA discrimina, ¿quién se lleva la peor parte? En resumen: probablemente ambos.
Guy Brenner , socio laboral de Proskauer Rose, lo expresó sin rodeos: “No hay defensa alguna que diga que ‘IA lo hizo’ (infringir una ley). Si IA lo hizo, es lo mismo que si el empleador lo hiciera”, declaró a Reworked.
Los empleadores no pueden externalizar la responsabilidad.
Las leyes federales contra la discriminación, como el Título VII y la ADA, se aplican independientemente de si la decisión la toma un humano o un algoritmo. La EEOC ha sido clara : si la herramienta de su proveedor descarta las clases protegidas de forma desproporcionada, usted sigue siendo responsable. La EEOC declaró que si los proveedores de tecnología consiguen regularmente candidatos o empleados para un empleador, podrían ser considerados agencias de empleo según la ley federal. Esto significa que los proveedores podrían enfrentar responsabilidad directa por discriminación, no solo como parte en ella. Los empleadores podrían entonces demandar para obtener una indemnización.
El caso de Aon demuestra que las empresas que venden herramientas de IA con sesgo podrían enfrentarse a denuncias de la FTC por prácticas de marketing engañosas. Si un proveedor afirma que su herramienta es “libre de sesgos” o “elimina la discriminación”, y esto resulta ser falso, podría enfrentarse a medidas regulatorias.
La realidad es que los empleadores asumen la mayor parte del riesgo legal inmediato. Los tribunales y las agencias esperan que las empresas auditen a sus proveedores, comprueben si hay sesgos y mantengan la supervisión humana. “Confiamos en el proveedor” no es una defensa. Es una admisión de que no se realizó la debida diligencia, afirmaron los abogados con los que hablamos.
Pero el panorama legal está cambiando.
“Antes, Recursos Humanos podía elegir una herramienta y decidir cómo funcionaba. Ahora existe una aplicación de la ley que nunca se pretendió aplicar en el contexto de una herramienta de IA”, declaró Brenner a Reworked. Además, aún no existe mucha jurisprudencia que aclare si los intermediarios tecnológicos pueden considerarse agencias de empleo, ya que la cuestión no se ha planteado hasta hace poco.
El problema de la caja negra
Parte de lo que complica estos casos es que muchos sistemas de IA aún funcionan como “cajas negras”. Los algoritmos son tan complejos que ni siquiera quienes los diseñaron siempre pueden explicar por qué tomaron una decisión específica . Aquí es donde la IA Explicable (XAI) cobra importancia.
Según IBM , la IA explicable es «un conjunto de procesos y métodos que permite a los usuarios humanos comprender y confiar en los resultados generados por los algoritmos de aprendizaje automático». En lugar de simplemente obtener una puntuación o una recomendación, la IA explicable muestra qué factores consideró el algoritmo y la ponderación asignada a cada uno.
Brenner enfatizó este punto: «Los empleadores necesitan comprender cómo funciona la IA que utilizan. Debe ser transparente». Sin esa transparencia, los empleadores no pueden auditar si hay sesgos, no pueden solucionar problemas ni pueden defenderse en los tribunales.
El problema es que muchos empleadores desconocen cómo funcionan sus herramientas de IA. Compran software a proveedores y confían en que cumple su función. Sin embargo, «el nuevo uso de la IA puede tener consecuencias legales imprevistas», afirmó Brenner.
El resultado final
Las herramientas de IA prometen gestionar volúmenes masivos de aplicaciones que los humanos no pueden procesar. Esa promesa es real. Pero cuando estas herramientas aprenden de datos históricos que reflejan décadas de discriminación, no eliminan el sesgo. Lo automatizan y lo escalan.
Es evidente que se avecinan más demandas porque las condiciones son ideales para ellas, según los abogados Brenner y Odash. Millones de solicitantes de empleo envían cientos de solicitudes y son rechazados por algoritmos que no pueden ver ni cuestionar. Un porcentaje de esos rechazos será discriminatorio, intencional o no. Y a medida que aumenta la conciencia sobre cómo funcionan (o no funcionan) estos sistemas, y las personas son más conscientes de sus derechos digitales, más solicitantes se defenderán.
Para los empleadores, la pregunta no es si usar IA en la contratación, según los expertos con los que hablamos. La pregunta es cómo usarla responsablemente, con transparencia y auditorías periódicas para detectar problemas de forma proactiva. Esto se debe a que, una vez que se verifica una demanda colectiva y se descubre que su herramienta de IA excluyó a trabajadores de mayor edad o a minorías raciales, el daño ya está hecho. Los acuerdos pueden ser cuantiosos. El impacto en la reputación puede ser aún mayor.
La ola se está gestando. Lo inteligente es adelantarse.
Nota del editor: ¿Qué más debe saber sobre el uso de IA en la contratación?
- Cómo hacer que las herramientas de contratación de IA funcionen para todos : a medida que la IA ingresa al proceso de contratación, las organizaciones deben equilibrar la eficiencia con la imparcialidad auditando datos, revisando resultados y manteniendo a los humanos informados.
- ¿Qué sucede cuando los candidatos eligen IA en lugar de reclutadores? — Un hecho que debería hacer reflexionar a todo líder de talento: cuando a más de 70.000 postulantes se les ofreció elegir entre un reclutador y un entrevistador con IA, el 78 % eligió IA.
- Consejos para distinguir la IA de la mentira : la última ola de IA puede hacer cosas que ni siquiera habríamos imaginado hace cinco años. Pero no todas las IA son iguales: algunos consejos para distinguir las falsificaciones de la verdad.
Acerca del autor
Virginia Backaitis es una periodista experimentada que ha cubierto temas laborales desde 2008 y tecnológicos desde 2002. Ha escrito para publicaciones como The New York Post, Seeking Alpha, The Herald Sun, CMSWire, NewsBreak, RealClear Markets, RealClear Education, Digitizing Polaris y Reworked, entre otras.