Artículos recientes de RealKM Magazine han identificado que la ética es un desafío importante1 en la implementación de la inteligencia artificial (IA) en la gestión del conocimiento (GC), y proporcionó estrategias y recomendaciones2 para gestionar estas consideraciones éticas.

por Bruce Boyes

Si el uso de la IA en la gestión del conocimiento continúa en ausencia de tales estrategias, entonces es solo cuestión de tiempo antes de que los administradores del conocimiento terminen enfrentando acciones legales en los tribunales o críticas públicas en los medios de comunicación, o ambas, como lo destaca el preocupante caso de una organización de gestión del conocimiento3. De hecho, si esa organización de KM tuviera su sede en Australia, es muy probable que tales consecuencias ya se hubieran producido, causando un grave daño a la reputación de KM en su conjunto.

Y, si alguien en KM está pensando que esto no es tan importante o que no es su problema, entonces un caso inquietante de KM del lado oscuro4 es más material para pensar.

Para ayudar aún más a la gestión de las consideraciones éticas en el uso de la IA en la gestión del conocimiento, este artículo proporciona cuatro dimensiones y cinco componentes básicos para una IA responsable. “IA responsable” (RAI)5 “una serie de principios, prácticas y estándares que ayudan a garantizar que las tecnologías y los productos de IA se desarrollen y utilicen de manera segura, ética y en línea con las expectativas de la sociedad”.

Las organizaciones, incluidas las organizaciones de gestión del conocimiento, deben utilizar estos marcos y los vinculados anteriormente para desarrollar e implementar estrategias de IA que tengan una IA ética y responsable en su núcleo.

Cuatro dimensiones de la IA responsable

En un artículo de 20136 en la revista Research Policy propone cuatro dimensiones de innovación responsable que pueden aplicarse a la innovación de la IA. Las dimensiones no flotan libremente, sino que deben conectarse como un todo integrado. Ellos son:

  • Anticipación: las implicaciones perjudiciales de las nuevas tecnologías a menudo son imprevistas, y las estimaciones de daños basadas en el riesgo generalmente no han proporcionado alertas tempranas de efectos futuros. La anticipación impulsa a los gerentes del conocimiento a hacer preguntas de “¿qué pasaría si…?”, a considerar la contingencia, lo que se sabe, lo que es probable, lo que es plausible y lo que es posible. Los métodos de previsión, evaluación tecnológica, exploración del horizonte o planificación de escenarios pueden ser técnicas importantes. Algunos académicos también han sugerido que las técnicas socioliterarias que se basan en la ciencia ficción pueden ser formas poderosas de democratizar el pensamiento sobre el futuro.
  • Reflexividad: esto significa sostener un espejo frente a las propias actividades, compromisos y suposiciones, ser consciente de los límites del conocimiento y ser consciente de que un marco particular de un problema puede no ser universal. Mecanismos como los códigos de conducta, las moratorias y la adopción de normas pueden fomentar esta reflexividad.
  • Inclusión: la disminución de la autoridad de la formulación de políticas expertas de arriba hacia abajo se ha asociado con un aumento en la inclusión de nuevas voces en la gobernanza de la ciencia y la innovación. Estos procesos de diálogo público en grupos pequeños incluyen conferencias de consenso, jurados ciudadanos, mapeo deliberativo, encuestas deliberativas y grupos focales. Pueden permitir que el debate público tenga lugar “aguas arriba” en el proceso científico y tecnológico.
  • Capacidad de respuesta: la innovación responsable requiere la capacidad de cambiar de forma o dirección en respuesta a los valores públicos y de las partes interesadas y a las circunstancias cambiantes. La capacidad de respuesta consiste en ajustar los cursos de acción al tiempo que se reconoce la insuficiencia de conocimiento y control. La diversidad es una característica importante de los sistemas de innovación productivos, resilientes, adaptables y, por lo tanto, receptivos. La innovación responsable no solo debe dar la bienvenida a la diversidad; debería nutrirlo.

Cinco componentes básicos para una IA responsable

En 2024, el Centro para la Democracia y la Tecnología (CDT) reunió a más de 30 profesionales para un taller y entrevistas. El grupo incluyó investigadores sociotécnicos, diseñadores, expertos en políticas, líderes técnicos y personal legal y de cumplimiento, con experiencia trabajando en esfuerzos relacionados con la IA responsable, la ética de la IA y la seguridad de la IA. Los profesionales procedían de una variedad de organizaciones de la industria, la sociedad civil y el gobierno.

Como se describe en un libro de jugadas recientemente publicado7, las ideas del taller y las entrevistas revelaron cinco componentes básicos, las cinco P, necesarios para poner en práctica una IA responsable:

  1. Personas: Capacite a sus expertos. Los objetivos de IA responsable se cumplen mejor con equipos multidisciplinarios que contienen experiencia variada en dominios, técnicos y sociales. En lugar de buscar contrataciones “unicornio” con todas las dimensiones de experiencia, las organizaciones deben crear equipos interdisciplinarios, garantizar prácticas de contratación inclusivas y decidir estratégicamente dónde se aloja el trabajo de RAI, es decir, si está centralizado, distribuido o híbrido. Integrar RAI en el tejido organizacional y garantizar que los profesionales estén suficientemente respaldados e influyentes es fundamental para desarrollar estructuras de equipo estables y fomentar un fuerte compromiso entre las partes interesadas internas y externas.
  2. Prioridades: Clasificar cuidadosamente el trabajo. Para que las prácticas responsables de IA se implementen de manera efectiva, los equipos deben definir claramente el alcance de este trabajo, que puede anclarse tanto en obligaciones regulatorias como en compromisos éticos. Los equipos deberán priorizar factores como la gravedad del riesgo, las preocupaciones de las partes interesadas, la capacidad interna y el impacto a largo plazo. A medida que evolucionan las presiones tecnológicas y comerciales, garantizar la alineación estratégica con el liderazgo, la cultura organizacional y los incentivos del equipo es crucial para mantener la inversión en prácticas responsables a lo largo del tiempo.
  3. Procesos: Establecer estructuras para la gobernanza. Las organizaciones necesitan mecanismos de gobernanza estructurados que vayan más allá de los esfuerzos ad-hoc para abordar los problemas emergentes planteados en el desarrollo o la adopción de la IA. Estos incluyen enfoques estandarizados de gestión de riesgos, una guía clara para la toma de decisiones internas y controles y equilibrios para alinear los incentivos en funciones comerciales dispares. Los procesos deben superponer los métodos formales (por ejemplo, auditorías, puntos de control de revisión) con los informales (por ejemplo, normas éticas, cultura interna) para respaldar la coherencia y la memoria institucional necesarias para una gobernanza eficaz de la IA.
  4. Plataformas: Invertir en infraestructura de responsabilidad. Para escalar las prácticas responsables, las organizaciones estarán bien servidas invirtiendo en infraestructura técnica y de procedimiento fundamental, incluidos sistemas centralizados de gestión de documentación, herramientas de evaluación de IA, métodos de mitigación listos para usar para daños comunes y modos de falla, y plataformas de monitoreo posteriores a la implementación. Las taxonomías compartidas y las definiciones coherentes pueden respaldar la alineación entre equipos, mientras que los sistemas de documentación funcional hacen que el trabajo de IA responsable sea internamente reconocible, accesible y procesable. La infraestructura que equilibra la automatización con la necesidad de supervisión humana es particularmente crucial para navegar por contextos de alto riesgo.
  5. Progreso: Realice un seguimiento de los esfuerzos de manera integral. Mantener el apoyo y mejorar las prácticas responsables de IA requiere que los equipos midan y comuniquen diligentemente el impacto de los esfuerzos relacionados. Se pueden utilizar métricas e indicadores personalizados para ayudar a justificar los recursos y promover la responsabilidad interna. Los modelos de madurez organizacional y temática también pueden guiar la mejora incremental y la institucionalización de prácticas responsables; Las iniciativas de transparencia significativas pueden ayudar a fomentar la confianza de las partes interesadas y el compromiso democrático en la gobernanza de la IA.

Referencias:

  1. Boyes, B. (2025, 27 de agosto). ¿Cuáles son los desafíos clave en la implementación de IA en KM y cómo se pueden abordar? Revista RealKM
  2. Boyes, B. (2025, 3 de septiembre). Estrategias y recomendaciones para la gestión de consideraciones éticas en el uso de la IA en KM. Revista RealKM
  3. Boyes, B. (2025, 13 de marzo). Un caso preocupante destaca que la comunidad de KM carece de las capacidades clave necesarias para el uso seguro de la IA. Revista RealKM
  4. Boyes, B. (2025, 31 de julio). Ignorar el daño, salvar las apariencias: estrategias de no conocimiento y evitación del conocimiento, y lo que significan para KM. Revista RealKM
  5. Cibralic, B., Bogen, M., Bankston, K. y Joshi, R. (2025, septiembre). Práctica basada en principios: un libro de jugadas para poner en práctica la IA responsable. Laboratorio de Gobernanza de IA, Centro para la Democracia y la Tecnología. 
  6. Stilgoe, J., Owen, R. y Macnaghten, P. (2020). Desarrollar un marco para la innovación responsable. En La ética de la nanotecnología, la geoingeniería y la energía limpia (pp. 347-359). Routledge. 
  7. Cibralic, B., Bogen, M., Bankston, K. y Joshi, R. (2025, septiembre). Práctica basada en principios: un libro de jugadas para poner en práctica la IA responsable. Laboratorio de Gobernanza de IA, Centro para la Democracia y la Tecnología. 

Fuente: https://realkm.com/2025/10/02/four-dimensions-and-five-building-blocks-for-responsible-ai-in-knowledge-management/

Deja una respuesta