Imagen: Sohail en Adobe Stock, generada con IA
Aprenda a crear una política de IA ética que proteja a su empresa, sus empleados y sus clientes, antes de que su equipo tome decisiones sin ella.
Ya sea que su empresa utilice IA como socio estratégico, asistente administrativo, un miembro adicional en la mesa de ayuda o no lo haga en absoluto, debe tener una política interna que regule lo que se considera un uso aceptable, responsable y ético de esta poderosa tecnología.
Sin orientación, las personas lo usarán por sus propios motivos. Y si su empresa lo adopta para facilitar los flujos de trabajo, la toma de decisiones y la atención al cliente, se verá envuelto en turbios problemas éticos y legales si no crea políticas que consideren estos aspectos.
Antes de que su equipo comience a tomar decisiones sobre el uso de IA para su empresa, en ausencia de orientación, elabore una política ética de IA para abordar cómo se debe y no se debe utilizar.
“Cuando se trata de datos o regulaciones sensibles, no se puede permitir ser reactivo”, dijo Chintan Mota, consultor de Rising/Wipro especializado en tecnología empresarial. “Se necesitan medidas de seguridad antes de implementar la primera aplicación de IA productiva”.
¿Cómo diseñar, anunciar e implementar estas políticas? Aquí tienes algunas sugerencias.
1. Crear un grupo de trabajo de IA ética
Un enfoque descendente nunca funcionará. Además del liderazgo de la alta dirección, las personas de los equipos con mayor presencia en la base deben formar parte integral del desarrollo de políticas, ya que generalmente son los primeros en detectar el uso indebido de la IA.
– Piyanka Jain
Presidente y director ejecutivo de Aryng
El primer paso para diseñar su política de IA es formar un equipo encargado de analizar los hechos y decidir qué uso es adecuado (e inadecuado) para su empresa. ¿Es esta una decisión que debe tomar la alta dirección? ¿Existen factores interdisciplinarios que deban considerarse?
Cuando se lanzó ChatGPT , el equipo del Centro Internacional de Periodistas (ICFJ) estaba dividido sobre su uso. Decidieron que, antes de avanzar, necesitaban profundizar, examinar la ética de la IA y elaborar una política que todos aceptaran y cumplieran.
“Convocamos un grupo de trabajo para crear una Política de Uso de IA que establezca un estándar sobre cómo ICFJ utiliza, adopta e interactúa con las herramientas de IA”, explicó el equipo en un comunicado de prensa . “El grupo de trabajo estuvo compuesto por personal de varios niveles y departamentos para garantizar que la nueva política sea una herramienta eficaz para todos en la organización”.
Es posible que deba considerar aspectos legales al desarrollar su política. De ser así, necesitará personal en el equipo con formación jurídica. También podría haber cuestiones de sesgo, derechos de autor y relaciones públicas que deba considerar. De ser así, asegúrese de que dichas ideologías estén representadas.
¿Y qué hay de su cultura interna? ¿Sabe cuál es su situación? Las personas pueden tener fuertes opiniones a favor o en contra del uso de la IA. Su equipo debe recopilar información para tener una idea de cómo responderá su cultura y poder generar impulso entre las tropas.
“Un enfoque descendente nunca funcionará”, afirmó Piyanka Jain, presidenta y directora ejecutiva de Aryng , empresa consultora en ciencia de datos y alfabetización de datos . “Además de los altos directivos, las personas de equipos más directos, como ventas, atención al cliente y operaciones, deben formar parte integral del desarrollo de políticas, ya que generalmente son los primeros en detectar el uso indebido de la IA. Deberían ser considerados guardianes éticos y sin conocimientos técnicos”.
“No dejen esto solo en manos de los científicos de datos”, coincidió Mota. “Incluyan a los equipos de RR. HH., legal, marketing, DEI y expertos en la materia. La ética no es solo un desafío técnico. Impacta a las empresas a nivel organizacional”.
2. Define qué significa ética para ti
Su equipo debe comenzar por definir qué significa “ético” para su empresa, la cultura de sus equipos y sus clientes.
“La política de IA debe reflejar los principios generales de la empresa, como la equidad, la transparencia y la rendición de cuentas”, afirmó Mota. “Aplique estos principios a cómo se desarrolla, evalúa, evalúa, prueba e implementa la IA”.
Pero no olvide la privacidad del cliente en relación con los datos que utiliza en su aplicación de IA, los datos que esta pueda recopilar y cómo la IA o otras áreas de la empresa podrían utilizarlos. Considere también cualquier aspecto legal o de gobernanza que deba guiar el uso de la IA o de los datos que esta utiliza.
“Los datos se utilizan para desarrollar y perfeccionar las aplicaciones de IA ”, explicó Jiaxi Zho, director de análisis de datos de Google . “La forma en que se definen y etiquetan los datos influirá directamente en los sistemas de IA. Las políticas deben incorporarse e integrarse en las normas y marcos de gobernanza de datos, como los principios para la obtención, el etiquetado, las auditorías de imparcialidad y el uso de los datos”.
Considere también el potencial de sesgo en el uso de la IA. Se han reportado casos de toma de decisiones sesgadas por parte de la IA en la atención médica, la contratación y otros ámbitos. Prevenirlo, detectarlo si ocurre, analizar sus decisiones para detectar posibles sesgos y garantizar que la IA no cause daños en el mundo real debe integrarse, en la medida de lo posible, en las políticas que desarrolle para regular su uso.
3. Considere los riesgos potenciales
No todas las aplicaciones de IA conllevan el mismo nivel de riesgo. Un modelo utilizado para pronosticar o medir el impacto tiene un nivel de riesgo muy diferente al de un modelo que facilita la personalización orientada al cliente.
-Jiaxi Zho
Jefe de información y análisis de Google
Las noticias están llenas de IA que han cometido errores, los han redoblado y han causado problemas a las empresas para las que trabajaban. Al pensar en sus políticas sobre futuras implementaciones de IA, considere el riesgo potencial. ¿De qué maneras podría perjudicar su implementación? ¿Hay maneras de mitigar ese riesgo?
Algunas cosas a tener en cuenta aquí pueden incluir: toma de decisiones sesgada, privacidad de datos comprometida o casos de uso que no se alinean con la misión de su empresa o con la percepción que desea que los clientes tengan de su empresa.
“No todas las aplicaciones de IA conllevan el mismo nivel de riesgo”, afirmó Zho. “Un modelo utilizado para pronosticar o medir el impacto tiene un nivel de riesgo muy diferente al de un modelo que facilita la personalización orientada al cliente”.
Considerar el riesgo desde todos los ángulos es una de las razones por las que conviene contar con un equipo diverso para crear sus políticas de IA. Contar con representantes de los departamentos técnicos, recursos humanos, comunicación, legal y atención al cliente ayudará a evitar puntos ciegos.
4. Anuncie sus políticas de manera práctica
Crear una política ética de IA inteligente y luego guardarla en un documento de Google o en un archivador no garantizará que todos los miembros del equipo la cumplan. «La política no funcionará si solo está en un PDF en una carpeta de SharePoint», afirmó Mota.
Desarrollar la política desde cero, con un equipo que represente a todos los aspectos de la empresa, e incluso a clientes y proveedores, es un excelente comienzo. Todos los que participaron en su creación la conocerán y estarán familiarizados con sus detalles. Pero también deberá enseñar a todos los demás que la política existe, cómo y cuándo usarla y qué implica en los flujos de trabajo diarios. La formación es clave.
Alex Smith, gerente y copropietario de Render3DQuick , comentó que una vez que su empresa implementó su política de IA, la capacitación fue el siguiente paso. “Organicé capacitaciones breves para el equipo con ejemplos de nuestros proyectos reales. Analizamos casos reales. Les expliqué dónde comienza su responsabilidad y qué comprobaciones deben realizar”.
Sin embargo, la educación y la publicación de su política ética en IA no deben limitarse a la educación interna.
“Si utilizas programas o plataformas de LLM de terceros , o trabajas con empresas externas, tu política ética también debería aplicarse a ellos”, afirmó Mota. “Insiste en la transparencia de los datos de formación, las restricciones de uso y la gobernanza”.
Tus clientes también deberían saber si usas IA, cuándo y cómo. ¿Cómo afecta la IA a los datos que recopilas sobre ellos? ¿Responde la IA a sus preguntas? ¿Pueden confiar en esas respuestas? Ser transparente sobre estos temas ayudará a generar confianza en los clientes.
Lanzamiento de su política ética de IA
Crear políticas para gobernar algo tan transformador como la IA es un proyecto complejo. Podría parecer que debería tomarse su tiempo, recopilar más información, garantizar su seguridad y actuar con cautela al implementar sus políticas éticas de IA. Sin embargo, ese ya no es el mundo en el que vivimos.
“No esperes a que todo sea perfecto”, dijo Mota. “El mundo de la IA avanza rápidamente. Tus políticas pueden y deben evolucionar con él. Empieza por lo simple, con las opciones menos arriesgadas, y ve iterando rápidamente”.
Pero, aunque su política sea algo dinámico y en constante crecimiento, la forma de implementarla no debe parecer apresurada. Preste atención a la cultura de su empresa y a cómo sus políticas afectan a clientes y proveedores. “Al implementar políticas, hágalo con el mismo cuidado que le daría al lanzamiento de un producto”, dijo Rajeev Kapur, autor de ” AI Made Simple “. “Explique por qué es importante, cómo funciona y qué protege”.
Piense en esto como una misión educativa más que como un anuncio.
Cree también mecanismos para que los empleados y las partes interesadas externas informen sobre cualquier inquietud ética que tengan con respecto a su uso de la IA, o incluso sobre la IA en general, y para alertar sobre los casos en que observen que se ignora su política ética. La denuncia anónima en este caso facilitará la participación de las personas y le ayudará a mejorar su política, a la vez que orientará sus iniciativas educativas.
Acerca del autor
Christina X. Wood es escritora y novelista. Ha cubierto temas de tecnología desde antes de que Bill conociera a Melinda y tú conocieras a Google. Wood escribió la columna “Tecnología Familiar” en la revista Family Circle, la columna “Buscador de Ofertas” en Yahoo! Tech, “Implications” para PC Magazine y “Consumer Watch” para PC World. Escribe sobre tecnología, educación, paternidad y muchos otros temas. Es licenciada en Inglés por la Universidad de California, Berkeley.
Fuente: https://www.vktr.com/digital-workplace/how-to-build-an-ethical-ai-policy-that-actually-works/