por Tom Barratt , Alex Veen y Caleb Goods
“Lo siento, Dave. Me temo que no puedo hacer eso “. La fría, aunque educada, negativa de HAL a abrir las puertas de la bahía de cápsulas en 2001: una odisea del espacio se ha convertido en una advertencia definitoria sobre la confianza excesiva en la inteligencia artificial, especialmente si se trabaja en el espacio.
En las películas, cuando una máquina decide ser el jefe (o los humanos lo dejan), las cosas salen mal. Sin embargo, a pesar de la miríada de advertencias distópicas, el control de las máquinas se está convirtiendo rápidamente en nuestra realidad.
Los algoritmos, conjuntos de instrucciones para resolver un problema o completar una tarea, ahora impulsan todo, desde los resultados de búsqueda del navegador hasta una mejor atención médica .
Están ayudando a diseñar edificios . Están acelerando el comercio en los mercados financieros, haciendo y perdiendo fortunas en microsegundos. Están calculando las rutas más eficientes para los repartidores .
En el lugar de trabajo, las empresas están introduciendo sistemas informáticos algorítmicos de autoaprendizaje para ayudar en áreas como la contratación, el establecimiento de tareas, la medición de la productividad, la evaluación del desempeño e incluso la terminación del empleo: “Lo siento, Dave. Me temo que lo están despidiendo “.
Dar a los algoritmos de autoaprendizaje la responsabilidad de tomar y ejecutar decisiones que afectan a los trabajadores se denomina “ gestión algorítmica ” . ”Lleva una serie de riesgos al despersonalizar los sistemas de gestión y afianzar los sesgos preexistentes.
A un nivel aún más profundo, quizás, la administración algorítmica afianza un desequilibrio de poder entre la administración y el trabajador. Los algoritmos son secretos muy bien guardados. Sus procesos de toma de decisiones están ocultos. Es una caja negra: tal vez tenga algo de comprensión de los datos que ingresaron y vea el resultado que sale, pero no tiene idea de lo que sucede en el medio.
Algoritmos en acción
A continuación se muestran algunos ejemplos de algoritmos que ya están funcionando.
En el centro logístico de Amazon en el sureste de Melbourne, marcaron el ritmo para los “recolectores”, que tienen cronómetros en sus escáneres que muestran cuánto tiempo tienen para encontrar el siguiente artículo . Tan pronto como escanean ese elemento, el temporizador se reinicia para el siguiente. Todo a una velocidad de “no caminar ni correr del todo”.
¿O qué tal si la IA determina su éxito en una entrevista de trabajo? Más de 700 empresas han probado esta tecnología . El desarrollador estadounidense HireVue dice que su software acelera el proceso de contratación en un 90 por ciento al hacer que los solicitantes respondan preguntas idénticas y luego las califiquen según el idioma, el tono y las expresiones faciales.
Por supuesto, las evaluaciones humanas durante las entrevistas de trabajo son notoriamente defectuosas. Sin embargo, los algoritmos también pueden estar sesgados . El ejemplo clásico es el software COMPAS utilizado por los jueces, los funcionarios de libertad condicional y de libertad condicional de los EE. UU. Para evaluar el riesgo de una persona de reincidir. En 2016, una investigación de ProPublica mostró que el algoritmo era muy discriminatorio, clasificando incorrectamente a los sujetos negros como de mayor riesgo el 45 por ciento de las veces, en comparación con el 23 por ciento de los sujetos blancos.
Cómo se las arreglan los trabajadores de conciertos
Los algoritmos hacen lo que su código les dice que hagan. El problema es que este código rara vez está disponible. Esto los hace difíciles de escrutar o incluso de comprender.
En ninguna parte es esto más evidente que en la economía de los conciertos. Uber, Lyft, Deliveroo y otras plataformas no podrían existir sin algoritmos que asignen, monitoreen, evalúen y recompensen el trabajo.
Durante el año pasado, los mensajeros y conductores de bicicletas de Uber Eats , por ejemplo, culparon a cambios inexplicables en el algoritmo de reducir sus empleos e ingresos.
Rider’s no puede estar 100% seguro de que todo se debe al algoritmo. Pero eso es parte del problema. El hecho de que quienes dependen del algoritmo no sepan de una forma u otra tiene una poderosa influencia sobre ellos.
Este es un resultado clave de nuestras entrevistas con 58 mensajeros de entrega de alimentos . La mayoría sabía que sus trabajos fueron asignados por un algoritmo (a través de una aplicación). Sabían que la aplicación recopilaba datos. Lo que no sabían era cómo se usaban los datos para adjudicarles el trabajo.
En respuesta, desarrollaron una serie de estrategias (o adivinaron cómo) para “ganar” más trabajos, como aceptar trabajos lo más rápido posible y esperar en lugares “mágicos”. Irónicamente, estos intentos de complacer al algoritmo a menudo significaban perder la misma flexibilidad que era uno de los atractivos del trabajo en directo.
La asimetría de información creada por la gestión algorítmica tiene dos efectos profundos. Primero, amenaza con afianzar los sesgos sistémicos, el tipo de discriminación oculta dentro del algoritmo COMPAS durante años. En segundo lugar, agrava el desequilibrio de poder entre la dirección y el trabajador.
Nuestros datos también confirmaron los hallazgos de otros de que es casi imposible quejarse de las decisiones del algoritmo. Los trabajadores a menudo no conocen la base exacta de esas decisiones y, de todos modos, no hay nadie ante quien quejarse. Cuando los mensajeros en bicicleta de Uber Eats preguntaron las razones de la caída de sus ingresos, por ejemplo, las respuestas de la empresa les dijeron que “no tenemos control manual sobre la cantidad de entregas que recibes”.
Lecciones más amplias
Cuando la gestión algorítmica opera como una “caja negra”, una de las consecuencias es que puede convertirse en un mecanismo de control indirecto . Hasta ahora, poco apreciado por los reguladores australianos, este mecanismo de control ha permitido a las plataformas movilizar una fuerza laboral confiable y escalable, evitando las responsabilidades de los empleadores .
“La ausencia de evidencia concreta sobre cómo funcionan los algoritmos”, señala la investigación del gobierno de Victoria sobre la fuerza laboral “bajo demanda” en su informe, “hace que sea difícil para un conductor o ciclista quejarse si se siente en desventaja por uno”.
El informe, publicado en junio, también encontró que es “difícil de confirmar si la preocupación por la transparencia del algoritmo es real”.
Pero es precisamente el hecho de que es difícil confirmar que ese es el problema. ¿Cómo podemos empezar a identificar, y mucho menos a resolver, problemas como la gestión algorítmica?
Los estándares de conducta justa para garantizar la transparencia y la responsabilidad son un comienzo. Un ejemplo es la iniciativa Fair Work , liderada por el Oxford Internet Institute . La iniciativa reúne a investigadores con plataformas, trabajadores, sindicatos y reguladores para desarrollar principios globales para el trabajo en la economía de plataformas. Esto incluye la “gestión justa”, que se centra en la transparencia de los resultados y los resultados de los algoritmos para los trabajadores.
La comprensión sobre el impacto de los algoritmos en todas las formas de trabajo está todavía en su infancia. Exige un mayor escrutinio e investigación. Sin una supervisión humana basada en principios acordados, corremos el riesgo de invitar a HAL a nuestros lugares de trabajo.
Crédito de la imagen: PickPik