Artículos recientes de la revista RealKM han identificado que la ética es un desafío importante 1 en la implementación de la inteligencia artificial (IA) tanto como en la gestión del conocimiento (KM), y han proporcionado estrategias y recomendaciones 2 para gestionar estas consideraciones éticas.
por Bruce Boyes
Si el uso de la IA en la gestión del conocimiento continúa en ausencia de tales estrategias, es solo cuestión de tiempo antes de que los gestores del conocimiento acaben enfrentándose a acciones legales en los tribunales o a críticas públicas en los medios, o ambas, como lo pone de relieve el preocupante caso de una organización de gestión del conocimiento 3 . De hecho, si dicha organización tuviera su sede en Australia, es muy probable que dichas consecuencias ya se hubieran manifestado, causando un grave daño a la reputación de la gestión del conocimiento en su conjunto.
Y, si alguien en KM piensa que esto no es tan importante o que no es su problema, entonces un caso inquietante de KM 4 del lado oscuro es más material para pensar.
Para facilitar la gestión de las consideraciones éticas en el uso de la IA en la gestión del conocimiento, este artículo presenta cuatro dimensiones y cinco pilares para una IA responsable. La «IA responsable» (IAR) se refiere a « un conjunto de principios, prácticas y estándares que ayudan a garantizar que las tecnologías y productos de IA se desarrollen y utilicen de forma segura, ética y conforme a las expectativas sociales».
Las organizaciones, incluidas las de KM, deben utilizar estos marcos y los vinculados anteriormente para desarrollar e implementar estrategias de IA que tengan la IA ética y responsable en su núcleo.
Cuatro dimensiones de la IA responsable
En un artículo de 2013, publicado en la revista Research Policy, se proponen cuatro dimensiones de la innovación responsable que pueden aplicarse a la innovación en IA. Estas dimensiones no son variables, sino que deben conectarse como un todo integrado. Son:
- Anticipación : Las implicaciones perjudiciales de las nuevas tecnologías suelen ser imprevistas, y las estimaciones de daños basadas en riesgos no suelen proporcionar alertas tempranas de efectos futuros. La anticipación impulsa a los gestores del conocimiento a plantearse preguntas del tipo “¿qué pasaría si…?”, a considerar la contingencia, lo conocido, lo probable, lo plausible y lo posible. Los métodos de previsión, la evaluación tecnológica, la exploración del futuro o la planificación de escenarios pueden ser técnicas importantes. Algunos académicos también han sugerido que las técnicas socioliterarias basadas en la ciencia ficción pueden ser formas eficaces de democratizar la reflexión sobre el futuro.
- Reflexividad : Esto significa reflejar las propias actividades, compromisos y suposiciones, ser consciente de los límites del conocimiento y de que una perspectiva particular de un tema puede no ser universal. Mecanismos como los códigos de conducta, las moratorias y la adopción de estándares pueden fomentar esta reflexividad.
- Inclusión : La disminución de la autoridad de los expertos en la formulación de políticas, desde arriba hacia abajo, se ha asociado con un aumento en la inclusión de nuevas voces en la gobernanza de la ciencia y la innovación. Estos procesos de diálogo público en pequeños grupos incluyen conferencias de consenso, jurados ciudadanos, mapeos deliberativos, encuestas deliberativas y grupos focales. Pueden permitir que el debate público se desarrolle en las primeras etapas del proceso científico y tecnológico.
- Capacidad de respuesta : La innovación responsable requiere la capacidad de cambiar de forma o dirección en respuesta a los valores de las partes interesadas y del público, así como a las circunstancias cambiantes. La capacidad de respuesta implica ajustar los cursos de acción, reconociendo la insuficiencia de conocimiento y control. La diversidad es una característica importante de los sistemas de innovación productivos, resilientes, adaptables y, por lo tanto, receptivos. La innovación responsable no solo debe acoger la diversidad, sino fomentarla.
Cinco pilares para una IA responsable
En 2024, el Centro para la Democracia y la Tecnología (CDT) reunió a más de 30 profesionales para un taller y entrevistas. El grupo incluía investigadores sociotécnicos, diseñadores, expertos en políticas, líderes técnicos y personal de cumplimiento y legal, con experiencia en iniciativas relacionadas con la IA responsable, la ética de la IA y la seguridad de la IA. Los profesionales provenían de diversas organizaciones de la industria, la sociedad civil y el gobierno.
Como se describe en un manual recientemente publicado7 , las conclusiones del taller y las entrevistas revelaron cinco componentes básicos (las cinco P) necesarios para poner en funcionamiento una IA responsable:
- Prioridades: Priorizar cuidadosamente el trabajo . Para implementar eficazmente prácticas responsables de IA, los equipos deben definir claramente el alcance de este trabajo, que puede basarse tanto en obligaciones regulatorias como en compromisos éticos. Los equipos deberán priorizar factores como la gravedad del riesgo, las preocupaciones de las partes interesadas, la capacidad interna y el impacto a largo plazo. A medida que evolucionan las presiones tecnológicas y empresariales, garantizar la alineación estratégica con el liderazgo, la cultura organizacional y los incentivos del equipo es crucial para mantener la inversión en prácticas responsables a lo largo del tiempo.
- Procesos: Establecer estructuras de gobernanza . Las organizaciones necesitan mecanismos de gobernanza estructurados que vayan más allá de las iniciativas puntuales para abordar los problemas emergentes que surgen durante el desarrollo o la adopción de la IA. Estos incluyen enfoques estandarizados de gestión de riesgos, una guía clara para la toma de decisiones internas y sistemas de control para alinear los incentivos entre las distintas funciones empresariales. Los procesos deben combinar métodos formales (p. ej., auditorías, puntos de control de revisión) con métodos informales (p. ej., normas éticas, cultura interna) para fomentar la coherencia y la memoria institucional necesarias para una gobernanza eficaz de la IA.
- Plataformas: Invertir en infraestructura de responsabilidad . Para escalar prácticas responsables, las organizaciones se beneficiarán al invertir en infraestructura técnica y procedimental fundamental, incluyendo sistemas centralizados de gestión de documentación, herramientas de evaluación de IA, métodos de mitigación listos para usar para daños y modos de fallo comunes, y plataformas de monitoreo posterior a la implementación. Las taxonomías compartidas y las definiciones consistentes pueden facilitar la alineación entre equipos, mientras que los sistemas de documentación funcional hacen que el trabajo de IA responsable sea internamente detectable, accesible y práctico. Una infraestructura que equilibre la automatización con la necesidad de supervisión humana es particularmente crucial para abordar contextos de alto riesgo.
- Progreso: Monitorear los esfuerzos de forma integral . Mantener el apoyo a las prácticas responsables de IA y mejorarlas requiere que los equipos midan y comuniquen diligentemente el impacto de las iniciativas relacionadas. Se pueden utilizar métricas e indicadores personalizados para justificar los recursos y promover la rendición de cuentas interna. Los modelos de madurez organizacional y temático también pueden guiar la mejora gradual y la institucionalización de prácticas responsables; las iniciativas de transparencia significativas pueden contribuir a fomentar la confianza de las partes interesadas y la participación democrática en la gobernanza de la IA.
Fuente de la imagen del encabezado: creada por Bruce Boyes con Microsoft Designer Image Creator .
Referencias:
- Boyes, B. (27 de agosto de 2025). ¿Cuáles son los principales desafíos en la implementación de la IA en la gestión del conocimiento y cómo abordarlos? Revista RealKM .
- Boyes, B. (3 de septiembre de 2025). Estrategias y recomendaciones para la gestión de consideraciones éticas en el uso de IA en la gestión del conocimiento. Revista RealKM .
- Boyes, B. (13 de marzo de 2025). Un caso preocupante destaca que la comunidad de gestión del conocimiento carece de las capacidades clave necesarias para el uso seguro de la IA. Revista RealKM .
- Boyes, B. (31 de julio de 2025). Ignorar el daño, salvar las apariencias: estrategias de desconocimiento y evasión del conocimiento, y su impacto en la gestión del conocimiento. Revista RealKM .
- Cibralic, B., Bogen, M., Bankston, K. y Joshi, R. (septiembre de 2025). Práctica basada en principios: Manual para la operacionalización de una IA responsable . Laboratorio de Gobernanza de IA, Centro para la Democracia y la Tecnología.
- Stilgoe, J., Owen, R. y Macnaghten, P. (2020). Desarrollo de un marco para la innovación responsable. En La ética de la nanotecnología, la geoingeniería y las energías limpias (pp. 347-359). Routledge.
- Cibralic, B., Bogen, M., Bankston, K. y Joshi, R. (septiembre de 2025). Práctica basada en principios: Manual para la operacionalización de una IA responsable . Laboratorio de Gobernanza de IA, Centro para la Democracia y la Tecnología.