Desarrollar una IA confiable requiere más que buenas intenciones: exige marcos sistemáticos que prioricen la IA responsable en cada punto de decisión.

por Erica Sweeney

Desarrollar una IA confiable requiere más que buenas intenciones: exige marcos sistemáticos que prioricen la IA responsable en cada punto de decisión.

Cuando una empresa adopta la inteligencia artificial, va más allá de una simple implementación tecnológica. Las empresas deben considerar el impacto que la tecnología tendrá en sus empleados, clientes y otras partes interesadas, y cómo sus estrategias de IA se alinean con los estándares éticos y de cumplimiento. 

“Las empresas deberían considerar la IA responsable como un imperativo comercial, no como algo opcional”, afirmó Diya Wynn , directora de IA responsable en Amazon Web Services. 

La IA responsable se refiere a “la práctica de diseñar, construir e implementar IA de forma segura e inclusiva para mitigar consecuencias o riesgos no deseados y maximizar los beneficios”, dijo Wynn, y una estrategia de IA responsable ayuda a las empresas a generar confianza y respaldar sus objetivos comerciales. 

Por qué es importante una IA responsable 

Si bien la IA ofrece beneficios para toda la empresa, la tecnología no tiene naturalmente capacidades morales o éticas como las tienen los trabajadores humanos, dijo Robert Howell , profesor y presidente de filosofía en la Universidad Rice, que investiga la ética de la tecnología.  

“Depende de las empresas y las personas que usan IA asegurarse de que esta cumpla con los estándares que ellos mismos y sus empleados exigen”, afirmó Howell. 

La IA responsable es una “prioridad” para las organizaciones a medida que implementan IA, particularmente IA agente , según la reciente encuesta AI Pulse de EY . 

La IA responsable es «un diferenciador competitivo y un generador de valor para las empresas», afirmó Merve Hickok , fundadora de AIethicist.org. «Una IA responsable implica construir sistemas más seguros, más protegidos y con mejor rendimiento». 

Ayuda a las organizaciones a establecer confianza con sus clientes y empleados al demostrar que sus intereses son valorados, dijo Hickok.

En definitiva, la IA responsable significa que los sistemas de IA «se comportan de forma que las personas puedan comprender, confiar y responsabilizarse», afirmó Rhea Saxena , directora técnica y de producto del Instituto de IA Responsable, una organización sin ánimo de lucro. Esto protege a las empresas de riesgos, incumplimientos normativos, daños a la reputación y la pérdida de oportunidades de innovación. 

Desafíos de la IA responsable 

Las empresas a veces tienen dificultades con la IA responsable, afirmó Wynn. Los desafíos incluyen saber por dónde empezar, cuestionarse si cuentan con las habilidades internas para implementar y adoptar las prácticas, y percibirla como un obstáculo para la innovación. 

“Para abordar los dos primeros desafíos, hay que empezar por la educación y la capacitación”, afirmó Wynn, y agregó que todos dentro de una organización deben ser responsables en materia de IA. 

Las organizaciones también necesitan replantear la narrativa de la IA responsable, incluyendo que «la IA responsable y la innovación no están reñidas», explicó Wynn. En realidad, afirmó, la IA responsable fomenta la innovación, pero puede requerir una inversión inicial. 

Con demasiada frecuencia, las empresas adoptan un enfoque reactivo, en el que no se centran en la ética o la responsabilidad de la IA hasta que surge un problema, en lugar de hacerlo durante el desarrollo o el uso de la tecnología, dijo Saxena. 

Otro desafío es que las organizaciones pueden estar usando IA avanzada pero tener “prácticas de gobernanza inmaduras”, lo que puede crear riesgo operativo, dijo Saxena.

Construyendo un marco de IA responsable 

“No existe una solución mágica para los marcos de IA responsables”, afirmó Saxena. Pero aquí hay algunos consejos para desarrollar una estrategia: 

Lidera con tus valores

Antes de sumergirse en un programa de IA, Howell sugirió considerar primero los valores de la empresa que las organizaciones quieren preservar y asegurarse de que su marco de IA responsable se alinee con esos valores. 

Además, hay que pensar en cómo la IA afectará a los humanos en cualquier etapa del proceso, añadió Howell. 

Establezca roles y responsabilidades claros en toda la organización, designando líderes responsables de IA en cada unidad de negocio, y cree marcos de IA responsables teniendo en cuenta las exigencias regulatorias, afirmó Wynn. AWS publica Tarjetas de Servicio de IA para ofrecer a sus clientes un recurso único para casos de uso previstos, opciones de diseño de IA responsables y mejores prácticas de rendimiento, añadió. 

Incorpórelo en todo

La IA responsable no debería ser un simple requisito, solo para impulsar el cumplimiento normativo, afirmó Wynn. En cambio, debe integrarse en las operaciones de toda la organización. 

“El objetivo es crear un entorno donde las prácticas responsables de IA estén estrechamente alineadas con la estructura y los incentivos organizacionales, no con presiones externas o requisitos de cumplimiento”, afirmó Wynn. 

No existe un estándar único para la IA responsable, añadió Saxena. Debe diseñarse para promover la innovación responsable y sostenible a lo largo del ciclo de vida de la IA de una empresa. El Instituto de IA Responsable ofrece diversos recursos, incluyendo marcos y estándares, para ayudar a las organizaciones a desarrollar sus propias políticas. 

Prepárese para los datos

Según la encuesta de EY, el 70% de los líderes senior dijeron que la incapacidad de su empresa para estar preparada para los datos obstaculizará la adopción de IA agente, y el 20% dice que la falta de preparación de datos es una barrera para la adopción de IA. 

Las empresas deben invertir en las mejores prácticas para gestionar los datos, afirmó Hickok. «Esto significa recopilar datos de alta calidad específicos del problema en cuestión, y no intentar adaptar los datos disponibles al problema». 

Centrarse en el impacto

Los sistemas de IA deben incorporar “elementos de privacidad, seguridad y confiabilidad por diseño” e incorporar el interés del consumidor en el diseño desde el principio, dijo Hickok. 

“La IA responsable no es una carrera de velocidad, sino una maratón”, afirmó Hickok. “No termina con el diseño del sistema de IA. Abarca el ciclo de vida del sistema y su impacto asociado”. 

El marco de una empresa también debe incorporar cómo una estrategia de IA afecta a los empleados que utilizan la tecnología y a los consumidores que la reciben, agregó Howell. 

Equipos de trenes

La alfabetización en IA , incluidas sus capacidades, posibilidades y limitaciones, en toda la organización es fundamental, afirmó Hickok.  

Entre los líderes senior, el 59% dijo que ha aumentado la capacitación en IA responsable durante el último año y el 64% la aumentará el próximo año, según el informe de EY. 

Todos en una empresa deberían recibir capacitación sobre el compromiso de la empresa con la IA responsable y cómo aplicarlo en sus funciones, afirmó Wynn. La capacitación debe incluir cómo se utiliza la IA, la estrategia de IA responsable de la empresa, la gobernanza de datos y la responsabilidad compartida de todos. 

Incorpore también capacitación continua y específica para cada puesto, afirmó Saxena. Por ejemplo, los ingenieros necesitan orientación para implementar la detección de sesgos , los equipos de producto deben comprender la ética en el diseño y los equipos de compras necesitan apoyo para evaluar las herramientas de IA de terceros y garantizar que cumplan con los estándares de gobernanza de la empresa. Además, los líderes deben reconocer el valor de una IA responsable más allá del cumplimiento normativo. 

La capacitación también debería cubrir la detección de sesgos, las pruebas de imparcialidad, las evaluaciones de impacto y los informes de transparencia, afirmó Wynn. 

“Es fundamental que todos los empleados comprendan qué debe hacer el sistema de IA, para que puedan monitorear los resultados inesperados en primera línea”, afirmó Hickok. 

Monitorear sistemas de IA

Los marcos de IA responsables deberían ser “más que principios estáticos”: deberían incluir herramientas prácticas y ciclos de retroalimentación, afirmó Saxena. Las empresas deberían establecer protocolos de documentación, evaluaciones de impacto periódicas y planes para que los humanos gestionen los casos de alto riesgo, recomendó. 

“Realizar evaluaciones de impacto para todos los sistemas de IA, evaluando los riesgos potenciales en términos de equidad, privacidad, seguridad e impacto social y las mitigaciones apropiadas según el nivel de riesgo”, dijo Wynn. 

La IA es una tecnología probabilística y frágil, afirmó Hickok. «Incluso con las mejores intenciones, puede generar resultados imprevistos, algunos de ellos perjudiciales». 

Para garantizar que los sistemas de IA funcionen según lo previsto, es necesario supervisar constantemente su rendimiento y los riesgos emergentes, afirmó Hickok. «Las prácticas y la implementación responsables de la IA madurarán junto con la madurez de los conocimientos y la experiencia de la organización». 

Nota del editor: Para obtener más información sobre la ética y la responsabilidad de la IA:

Acerca del autor

Erica Sweeney

Erica Sweeney ha sido periodista durante más de 15 años. Trabajó en medios locales en Little Rock, Arkansas, donde reside, hasta 2016, cuando se convirtió en periodista independiente a tiempo completo. 

Fuente: https://www.reworked.co/digital-workplace/fundamentals-of-a-responsible-ai-framework/

Deja una respuesta