Los marcos de IA responsables evolucionarán inevitablemente, pero puedes empezar a construir la base hoy mismo que prepare a tu empresa, y a tus empleados, para el éxito.
por Chris McClean

La IA generativa ha estimulado una especie de democratización. Ahora, cualquier persona con acceso a Internet puede experimentar con la IA, descubrir formas en que puede mejorar sus vidas y llevar estas nuevas ideas al lugar de trabajo. La creatividad y la innovación pueden significar grandes cosas para las empresas que buscan impulsar el crecimiento y mejorar la eficiencia, pero también introducen riesgos sustanciales. Las preocupaciones sobre la IA relacionadas con las violaciones de datos, las demandas de propiedad intelectual y el aumento de la exposición a la responsabilidad ya no son hipotéticas.
Una encuesta realizada en 2023 por Avanade a 800 líderes empresariales y tecnológicos de ocho países reveló que más del 85% de los ejecutivos creen que la IA aumentará el crecimiento de sus ingresos. Sin embargo, la misma encuesta mostró que el 70% de los ejecutivos cree que su organización es vulnerable al riesgo de reputación debido al uso actual y planificado de la IA.
Las implicaciones de la IA van más allá de la posibilidad de daño a la reputación. Los líderes corporativos están prestando mucha más atención a la amplia gama de posibles daños éticos, pérdidas operativas y acciones regulatorias que vienen con el territorio. Según la encuesta de Avanade, el 77% de los ejecutivos de alto nivel están de acuerdo en que las prácticas de IA más seguras y responsables se encuentran entre sus principales prioridades para el próximo año. Sin embargo, sabiendo que estos mismos ejecutivos también están priorizando los resultados comerciales como la velocidad y la reducción de costos, el intercambio de conocimientos y la innovación, o la resolución de problemas comerciales más complejos, la pregunta es, ¿quién debería ser responsable de la IA responsable?
El modelo del Departamento de Finanzas para la IA responsable
Cada empresa tendrá su propia respuesta única a esta pregunta, basada en el uso de la IA, su cultura corporativa y sus estructuras de gobernanza existentes. Pero como modelo útil, los líderes que se preguntan “¿cómo es una buena IA responsable?” pueden buscar inspiración en el departamento de finanzas. Cada empresa tiene una autoridad central para las finanzas, que supervisa las metodologías, las herramientas, los procesos y los expertos especializados que ejecutan los diversos procesos financieros en toda la organización. Al mismo tiempo, la mayoría de los empleados de una empresa determinada tienen un papel que desempeñar en las finanzas, ya sea que tengan objetivos de crecimiento y márgenes distintos, responsabilidades de adquisición o requisitos de informes de tiempo y gastos.
Las funciones responsables de la IA (por ejemplo, tecnología responsable, innovación responsable) deben tener una estructura similar, con una autoridad central a cargo de la metodología, expertos activos en la materia y una responsabilidad distribuida entre todos los empleados. Para llevar la comparación más allá, las empresas también pueden optar por subcontratar o subcontratar la experiencia en IA responsable, y pueden contratar auditores externos para verificar su trabajo, al igual que con las finanzas.
Ninguna organización parte de cero. Cada organización posee los componentes básicos para crear una estructura de responsabilidad que pueda trabajar rápidamente para mitigar los riesgos a corto plazo y, finalmente, convertirse en una disciplina integral y sólida que se alinee con los objetivos, valores y tolerancia al riesgo corporativos. Tener un objetivo final en mente (por ejemplo, emular al departamento de finanzas) puede guiar las decisiones a medida que los procesos crecen y maduran.
Consejos desde la vanguardia
Los líderes a cargo de la creación de programas de IA responsable también pueden utilizar estas lecciones de las organizaciones que ya están más avanzadas en el camino de la implementación.
Armonizar los esfuerzos de arriba hacia abajo y de abajo hacia arriba
Los conocimientos de Avanade sobre la simplificación de la gestión del cambio indican que un cambio eficaz no sigue estrictamente una trayectoria de arriba hacia abajo o de abajo hacia arriba. En cambio, abarca tres componentes clave: el “Destino” de arriba hacia abajo, el “Punto de partida” de abajo hacia arriba y “El Viaje” que entrelaza estas dos perspectivas.
Este enfoque puede ser especialmente útil para disciplinas como la IA responsable, donde la mayoría de las empresas tienen apetito por la agilidad y la experimentación en primera línea, con el deseo de hacer cumplir los controles y la supervisión más adelante.
Aprovechar las fortalezas de la organización
Según la encuesta de Avanade, el 50% de los líderes empresariales considera que la supervisión de las prácticas de IA es una responsabilidad de nivel directivo, mientras que el 30% la considera una tarea de nivel de jefe de departamento y el 15% la considera un deber funcional del líder.
La realidad es que, hasta cierto punto, es probable que recaiga sobre los hombros de los tres niveles, con la supervisión del nivel C, la experiencia a nivel departamental y el compromiso de primera línea. La mayoría de las empresas también pueden aprovechar las herramientas, técnicas y procesos existentes actualizándolos para incluir componentes de IA responsable (por ejemplo, ampliando las evaluaciones de calidad para incluir pruebas de equidad) o utilizando otro proceso como modelo para la IA responsable (por ejemplo, utilizando la gestión de riesgos del modelo como plantilla para la gobernanza de la IA responsable).
Comience con la alineación del negocio y el apetito por el riesgo
En el poco tiempo que las herramientas de IA generativa han estado disponibles para una amplia audiencia, han demostrado el potencial de cambiar drásticamente casi todos los aspectos de los negocios en casi todas las industrias. Los líderes empresariales y tecnológicos están luchando actualmente por hacerse cargo de todas las nuevas ideas, plataformas y aplicaciones disponibles, lo que significa que no están tan comprometidos con la gobernanza o la supervisión formal como deberían.
Sabiendo que las estructuras formales pueden tardar algún tiempo en unirse, comience por priorizar los proyectos que respalden las ventajas competitivas y evite los proyectos que corran el riesgo de dañar la marca u operaciones críticas. A partir de ahí, se puede confluir un marco más riguroso de IA responsable y una buena gobernanza de la IA.
Un marco para el éxito
Independientemente de cómo tome forma la disciplina de IA responsable, el objetivo final es garantizar que los empleados tomen decisiones comerciales y tecnológicas que reflejen los valores de la organización. Especialmente con tecnologías democratizadas como la IA generativa, todos los miembros de la organización deben compartir esa ambición, comprender que tienen un papel que desempeñar en el éxito del esfuerzo y saber cómo pueden contribuir mejor al panorama general.
Un dato alentador es que el 87% de los encuestados afirma que sus organizaciones están capacitando activamente a los empleados para que utilicen tecnologías de IA generativa como OpenAI y ChatGPT de forma responsable. Pero todos todavía estamos aprendiendo, y estos esfuerzos hacia la responsabilidad tendrán que seguir creciendo y evolucionando para abordar las nuevas tecnologías a medida que surjan. Por eso es tan importante un enfoque de varios niveles para aprovechar el potencial de la IA y mitigar los riesgos. Toda organización necesitará dirección estratégica, experiencia en la materia y un sentido generalizado de responsabilidad para hacerlo bien.
Sobre el autor
Como líder global de ética digital en Avanade, Chris McClean es responsable de impulsar la fluidez en materia de ética digital y el cambio interno de la empresa, así como de asesorar a los clientes en su camino hacia la ética digital. Antes de trabajar en Avanade, Chris trabajó durante 12 años en Forrester Research, donde dirigió el análisis y el asesoramiento de la empresa en materia de gestión de riesgos, cumplimiento, valores corporativos y ética.
Fuente: https://www.reworked.co/employee-experience/whos-responsible-for-responsible-ai/