El concepto de riesgo es más complejo de lo que se suele pensar. Cuando Mark Zuckerberg dijo que “el mayor riesgo es no correr ningún riesgo”, se refería a la vieja dinámica riesgo versus innovación. La innovación sin duda requiere cierto nivel de riesgo, pero ¿es posible que minimizar el riesgo pueda en realidad conducir a un mayor riesgo?

por Eric Sydell, Ph.D. and CEO – Vero AI

Cuando minimizar el riesgo es arriesgado

Para entender esta aparente paradoja, se podría considerar que es imposible eliminar todos los riesgos de nuestro mundo. Nadie vive para siempre y la Tierra misma está sujeta a cambios trascendentales que a menudo no podemos predecir ni controlar. En 2020, se establecieron regulaciones para minimizar la contaminación por dióxido de azufre de los buques portacontenedores, pero el dióxido de azufre refleja la luz solar, por lo que su disminución ha provocado el calentamiento de los océanos. Minimizar un tipo de riesgo a menudo aumenta otro riesgo.

Pero en las burocracias corporativas, es fácil justificar un nuevo proceso o herramienta para reducir el riesgo, porque la amenaza del riesgo siempre es inmediata y clara. Las desventajas de una estrategia de minimización de riesgos suelen ser especulativas, conceptuales y distantes y, por lo tanto, es menos probable que afecten las decisiones a corto plazo basadas en la ansiedad.

Por ejemplo, en el ámbito de la contratación y la selección de empleados en Estados Unidos, es ilegal discriminar a candidatos que pertenezcan a clases protegidas, como raza, color, religión, orientación sexual, origen nacional y más. Si un candidato presenta una denuncia por discriminación contra un empleador, la organización contratante podría verse obligada a presentar documentación que demuestre los niveles de impacto desigual en sus procesos. Dichos registros, en otras palabras, son detectables.

En lugar de exigirles que presenten registros que puedan mostrar evidencia de un impacto desigual, muchos abogados corporativos simplemente les indicarán a sus organizaciones que eviten buscarlos en primer lugar. Es decir, buscarán minimizar el riesgo legal de revelar discriminación al ordenarles a sus organizaciones que eviten verificar si hay discriminación.

En este caso, lo más probable es que si una empresa no controla los niveles de sesgo en sus procesos de selección, lo más probable es que exista sesgo. La razón es que el sesgo es insidioso y la única forma de erradicarlo es controlarlo continuamente y hacer los ajustes necesarios.

Desarrollar procesos de monitoreo continuo de herramientas o algoritmos de contratación de IA para garantizar que la contratación de una empresa no sea discriminatoria es más difícil que simplemente optar por no abordar el problema en absoluto. Esto último puede minimizar la exposición a corto plazo; sin embargo, puede tener consecuencias perjudiciales para una empresa que no cuenta con la validación de datos para demostrar que sus herramientas y procesos están libres de sesgos. Ocultar la evidencia probable de sesgo permite que florezca el racismo sistémico, y ese es un riesgo enormemente mayor para una organización que una herramienta de selección sesgada que podría solucionarse fácilmente.

Otro ejemplo destacado se da en el sector de los servicios financieros. En 2016, Wells Fargo tuvo que hacer frente a importantes problemas de cumplimiento normativo cuando se reveló que sus empleados habían creado millones de cuentas bancarias y de tarjetas de crédito no autorizadas sin el conocimiento de los clientes.

Los sistemas internos y los procesos de monitoreo de datos de Wells Fargo no lograron detectar ni prevenir las actividades fraudulentas, lo que provocó una importante violación de cumplimiento y un daño sustancial a la reputación del banco.

La falta de visibilidad y control integral de los datos por parte del banco subraya la importancia crucial de contar con sistemas sólidos de gestión y monitoreo de datos para garantizar el cumplimiento y prevenir actividades fraudulentas.

En ambos ejemplos, las estrategias de gestión de riesgos exageradas (o la falta de ellas) dieron como resultado una amenaza existencial mayor y de largo plazo.

La IA es a la vez arriesgada e imperativa

En la era de la IA, el dilema riesgo versus innovación está siempre presente, y la única solución es un enfoque matizado y equilibrado que encuentre un equilibrio entre ambas preocupaciones.

En la vida de cualquiera que lea esto, y posiblemente de cualquiera que haya vivido alguna vez, no ha habido una tecnología tan disruptiva como la IA. Industrias enteras están siendo diezmadas de la noche a la mañana a medida que las grandes empresas tecnológicas lanzan nuevas características de sus productos principales. Como afirmó Elon Musk, la IA reemplazará todos los trabajos humanos. De manera menos hiperbólica, en AI Superpowers: China, Silicon Valley, and the New World Order, Kai-Fu Lee escribe que a medida que la IA avance, privará a los humanos de trabajos significativos y conducirá a una “pérdida psicológica del propósito de uno mismo”.

La mayoría de las empresas y otras organizaciones no pueden darse el lujo de ignorar cómo la IA puede alterar y mejorar sus operaciones si desean seguir siendo solventes y relevantes en el futuro cercano.

Al mismo tiempo, la IA es un conjunto bastante confuso de capacidades con un serio conjunto de riesgos y limitaciones, y es difícil saber exactamente cómo (y cómo no) aplicarla a tareas operativas específicas.

Como ocurre con la mayoría de los grandes avances tecnológicos, el mundo está luchando por aprovechar la IA con diversas leyes y regulaciones. Hay literalmente miles de leyes emergentes en todo el mundo, y más de 80 de ellas solo en el Congreso de los Estados Unidos en este momento. Incluso las grandes empresas tecnológicas a menudo piden regulación, aunque algunos críticos creen que se trata simplemente de una estrategia para aumentar su margen de control, ya que es más probable que estas organizaciones puedan cumplir con las regulaciones que las empresas emergentes más pequeñas y sus competidores.

Pero, así como la energía nuclear tiene grandes beneficios ambientales, nadie sugeriría que las centrales nucleares no deban cumplir con estrictas normas de seguridad. La IA no es diferente: si se deja en manos de empresas con fines de lucro, acabará dañando a la humanidad.

La mayor parte de la legislación emergente sobre IA no reducirá la innovación, ya que sus requisitos son bastante mínimos. Por ejemplo, las normas propuestas a menudo exigen que quienes implementan tecnología de IA supervisen sus herramientas para detectar sesgos contra las clases protegidas, realicen análisis de impacto y se aseguren de que no se viole la privacidad de los datos individuales. ¿Son estas normas onerosas? Al contrario: cualquier herramienta poderosa como la IA debería venir con capacidades básicas de supervisión para garantizar que no perjudique a las personas.

Desde una perspectiva empresarial, cumplir con la legislación sobre IA no es suficiente. Si una organización garantiza que sus implementaciones de IA no violan la privacidad individual y son justas para todas las clases, esto no demuestra que el uso de la tecnología sea eficaz. Las leyes rara vez regulan la eficacia. Por lo tanto, la decisión queda a riesgo del comprador. Un gerente de contratación puede lanzar una moneda para decidir qué candidato contratar, y esto no violará ninguna ley laboral, pero ese es un proceso de contratación aleatorio que se deja al azar. Las organizaciones de hoy buscan una mayor garantía de que sus inversiones, especialmente cuando se trata de IA y análisis de datos, arrojarán resultados positivos.

La solución para innovar con IA y hacerlo de forma segura es rigurosa y requiere un seguimiento continuo. Los sistemas de control de energía nuclear no descansan, y los sistemas de control de IA tampoco deberían hacerlo. Las auditorías algorítmicas pueden ser evaluaciones puntuales útiles, pero aún son inadecuadas en comparación con los procesos de control de calidad continuos. Y si bien es importante comprender exactamente cómo funciona la IA, es más vital e inmediato para una empresa comprender sus impactos. No necesariamente necesitan saber cómo se construyeron los modelos.

Por supuesto, no todas las implementaciones de IA son riesgosas: la Ley de Inteligencia Artificial de la UE especifica cuatro niveles de riesgo: mínimo, limitado, alto e inaceptable. El uso de IA para hacer que una tostadora sea un poco mejor para no quemar el pan no alcanzará el nivel de amenaza Delta si funciona de manera más confiable con pan blanco que con pan integral de centeno.

Pero una aplicación de IA de alto riesgo utilizada en un video de evaluación de contratación que es más preciso al entrevistar a un candidato blanco que a uno negro es una historia diferente.

Otra dimensión que se debe tener en cuenta al evaluar el riesgo es el tiempo. Lo más seguro que una empresa puede hacer ahora mismo puede ser no hacer nada, pero no hacer nada indefinidamente no da como resultado nada. Las organizaciones pueden evitar realizar análisis potencialmente perjudiciales para su negocio, de modo que no tengan que lidiar con los resultados ni divulgarlos.

Pueden sobreajustar sus modelos de predicción de riesgos para sentirse mejor respecto de su margen de control y rechazar nuevos enfoques que amenacen sus procesos de negocio básicos, pero hacerlo no cambiará la realidad y, en una era de tecnología enormemente disruptiva, esas decisiones serían, sin duda, riesgosas.

Fuente: https://www.dbta.com/BigDataQuarterly/Articles/When-Risk-Minimization-Is-Risky-165868.aspx

Deja una respuesta