Anna y Elena Balbusso/theispot.com

Muchas organizaciones tienen la intención de verificar la equidad, la responsabilidad y la transparencia de sus sistemas de IA, pero luchan por implementar procesos con una IA responsable debido a obstáculos estructurales y culturales o falta de compromiso. Los autores recomiendan cinco estrategias para encarrilar los esfuerzos de RAI: estructurar la propiedad a nivel de proyecto, integrar la ética en los procedimientos cotidianos, alinear el riesgo ético con el riesgo comercial, recompensar el comportamiento responsable y practicar el juicio ético, no solo el cumplimiento.

por Öykü Işık y Ankita Goswami

En octubre de 2023, la ciudad de Nueva York publicó su plan de acción de IA, comprometiéndose públicamente con el uso responsable y transparente de la inteligencia artificial. El plan incluía principios rectores (responsabilidad, equidad, transparencia) y la creación de un nuevo rol para supervisar su implementación responsable: el oficial de políticas y gestión de algoritmos.

Pero a principios de 2024, las ambiciones de IA de Nueva York estaban bajo escrutinio. Resultó que un chatbot implementado para brindar orientación regulatoria a los propietarios de pequeñas empresas era propenso a dar consejos engañosos. Los informes revelaron que el sistema estaba desinformando a los usuarios sobre las leyes laborales y los requisitos de licencia y ocasionalmente sugiriendo acciones que podrían conducir a violaciones regulatorias.1 Los observadores cuestionaron no solo la precisión técnica del sistema, sino también los protocolos de gobernanza, los mecanismos de supervisión y los procesos de implementación de la ciudad. El episodio se convirtió en una advertencia, no solo para las instituciones públicas, sino para cualquier organización que implemente herramientas de IA a escala.

Este caso representa solo un ejemplo de un patrón más amplio. En todas las industrias, las empresas han adoptado el lenguaje de la IA responsable (RAI), enfatizando la equidad, la responsabilidad y la transparencia. Sin embargo, la implementación a menudo va muy por detrás de la ambición, ya que los sistemas de IA continúan produciendo resultados sesgados, desafían los requisitos de interpretabilidad y explicabilidad y provocan reacciones violentas entre los usuarios.

En respuesta, los reguladores han introducido una ola de nuevas políticas, incluida la Ley de IA de la Unión Europea, la Ley de Inteligencia Artificial y Datos de Canadá y las regulaciones actualizadas de IA de Corea del Sur, todas ejerciendo nuevas presiones sobre las organizaciones para que pongan en práctica la transparencia, la seguridad y la supervisión humana.

Aún así, incluso entre las empresas que comprenden los peligros potenciales, el progreso sigue siendo desigual y corren el riesgo de incrustar errores o sesgos en sus procesos o cometer violaciones éticas inesperadas y posiblemente graves a escala.

Fuente: https://sloanreview.mit.edu/article/the-three-obstacles-slowing-responsible-ai/

Deja una respuesta