Aunque casi el 80% de las empresas informan que están usando o planean usar IA (explodingtopics.com/blog/companies-using-ai), tanto los consumidores como las empresas siguen siendo escépticos sobre la tecnología. Un artículo de mayo de 2024 en Harvard Business Review se refirió a “la brecha de confianza de la IA” y citó la desinformación, la seguridad y el problema de la caja negra como las tres principales preocupaciones (hbr.org/2024/05/ais-trust-problem). Pero crear confianza es posible proporcionando visibilidad de las fuentes de información, gobernando la calidad del contenido subyacente, explicando el proceso de desarrollo y ofreciendo métodos para validar los resultados.

por Judith Lamont, Ph.D.

Construyendo confianza para GenAI

Algunas de las sospechas más profundas sobre la IA surgen de la IA generativa (GenAI), que crea contenido recién creado en respuesta a indicaciones después de ser entrenado en un modelo de lenguaje grande (LLM). Sin embargo, para producir respuestas que sean precisas y significativas para una organización en particular, es necesario incorporar información seleccionada sobre productos y servicios. Esto se puede lograr de varias maneras, incluida la generación aumentada de recuperación y la provisión de capacitación adicional o ajustes para el modelo. Se pueden incorporar métodos de verificación, incluida la supervisión humana y las consultas automatizadas de los datos para buscar hechos específicos conocidos por la organización, para garantizar la precisión en las respuestas.

Cuando se implementa con éxito, GenAI puede aprovechar el conocimiento corporativo de una manera eficiente y confiable. Una firma líder de análisis de impuestos desarrolló una plataforma de creación de contenido utilizando Progress Semaphore para generar informes fiscales y legislativos complejos para sus clientes. Su proceso manual con expertos en la materia era costoso debido a la naturaleza compleja del entorno de datos y la necesidad de crear un informe único para cada cliente. La plataforma Progress Semaphore ayudó a los usuarios a encontrar y reunir información a través de un proceso interactivo de creación de contenido. Basado en el ahorro de cada empleado 1.5 horas a la semana, los ahorros anuales estimados fueron de $30 millones.

Confiada en la base de conocimientos que se utilizaba para crear los informes, la empresa quería utilizar GenAI para el mismo propósito. En este caso, la aplicación GenAI estaba haciendo la investigación por su cuenta, escribiendo resúmenes y creando los informes. La producción del informe terminado se redujo a solo minutos. “Teniendo en cuenta el ahorro de tiempo, esto se tradujo en un nivel aún mayor de ahorro”, dijo Philip Miller, gerente senior de marketing de productos para IA en Progress, donde supervisa los mensajes y la estrategia para los datos y las iniciativas relacionadas con la IA.

Progress Semaphore es una solución de software que ayuda a las personas a encontrar significado y conocimiento conectando y contextualizando datos. Lo hace a través de la clasificación avanzada de datos, extrayendo hechos e información de documentos no estructurados. Utilizando la taxonomía y la ontología para clasificar la información y las relaciones, los trabajadores crean un gráfico de conocimiento en un entorno basado en la interfaz de usuario. Como resultado de este procesamiento, la información resultante es limpia y se relaciona adecuadamente con la organización. La función de búsqueda la lleva a cabo el motor de búsqueda MarkLogic, propiedad de Progress. La base de conocimientos se puede utilizar para generar respuestas a indicaciones o para respaldar chatbots y otras acciones de IA agentivas.

El sistema está diseñado para validar la información, verificando si la IA ha seguido las reglas, que se configuran utilizando lenguaje natural en combinación con el LLM. La combinación de IA simbólica como se refleja en las reglas, junto con el análisis de redes neuronales, proporciona la fuerza del análisis determinista y no determinista y se conoce como IA neurosimbólica. “Esta combinación se descartó durante muchos años porque las sofisticadas redes neuronales aún no estaban disponibles para soportarla”, comentó Miller, “pero ahora las dos pueden combinarse en plataformas de IA”.

Un peligro de usar IA agencial es que los errores también escalan. “Una tasa de error del 1% en una IA agencial de 100 pasos se compone para ser una tasa de error del 63% para la operación general”, explicó Miller. “Agregar reglas de gobernanza e incluir a un humano en el circuito para la validación es fundamental para desarrollar una IA confiable”. Después de demostrar que se siguen las reglas para generar respuestas y que se repite el proceso correcto de manera confiable, se puede eliminar la verificación manual. “Las reglas proporcionan un medio para escalar la inteligencia humana, pero deben probarse inicialmente para validarlas”, señaló Miller.

Para mantenerse actualizados, los modelos de conocimiento deben ser adaptativos. Progress Semaphore puede marcar las consultas de los usuarios que se relacionan con conceptos que no están en el modelo de conocimiento. El sistema puede enviar un aviso al experto en la materia (SME) de que falta un concepto, y el SME puede proporcionar la ubicación correcta para este concepto. “La IA puede hacer una ‘consulta inversa’ y notificar al usuario original que la nueva información ya está disponible”, señaló Miller. “Aplicado a escala, esto significa que la plataforma de conocimiento aprende a medida que absorbe más datos”. El ciclo de retroalimentación crea confianza en los usuarios de que el sistema de IA está proporcionando datos actuales en lugar de información estática.

Respetar los datos del cliente

Los sistemas de IA se basan en los datos de los clientes para numerosos propósitos, pero uno de los usos principales es brindar experiencias personalizadas. Los datos de los clientes también permiten el análisis de patrones de compra y análisis predictivos, así como otras medidas, como la probabilidad de que los clientes abandonen, las puntuaciones netas de los promotores y las medidas de voz del cliente. En muchos casos, sin embargo, los clientes se han vuelto cautelosos a la hora de compartir datos porque no creen que estén protegidos. Según Deloitte, en su informe Connected Consumer (www2.deloitte.com/us/en/pages/about-deloitte/articles/press-releases/ increasing-consumer-privacy-and-security-concerns-in-the-generative-ai-era. html), los clientes se han preocupado más por la seguridad en los últimos años. Sin embargo, sin datos sólidos subyacentes de los clientes, los sistemas de IA no pueden proporcionar información confiable.

Fundada hace 25 años para facilitar el intercambio de datos, Adeptia ofrece integración de datos de autoservicio a través de Adeptia Connect, que se utiliza para procesar datos entrantes de todo tipo. Con el concepto de que “los modelos de IA son tan buenos como los datos que los impulsan”, Adeptia se centra en los datos de primera milla. “Ninguna empresa trabaja de forma aislada”, dijo Deepak Singh, director de innovación de Adeptia. “Llega una gran cantidad de datos externos, ya sea de vendedores, proveedores o posibles clientes. Proporcionamos mapeo de datos para que estos datos sean consistentes y útiles, ya que provienen de fuentes dispares para resolver las diferencias en la forma en que se etiquetan”. Los desarrolladores ciudadanos pueden integrar datos de estas fuentes sin escribir código.

Aunque la precisión de los datos es importante para todos los sistemas analíticos y para la IA en particular, los datos de los clientes deben tratarse con especial respeto. “Primero, las empresas deben ser transparentes sobre por qué están recopilando datos de clientes y qué valor tienen”, comentó Singh. “También deben respaldar sus iniciativas de recolección con las medidas de seguridad adecuadas para cumplir con las garantías que dan”. Además, sus prácticas deben resumirse claramente. “No deben ocultar sus prácticas en avisos complejos ni dificultar la exclusión”, aconsejó Singh.

Adeptia ayuda a sus usuarios a generar confianza al establecer la capacidad de mantener la calidad de los datos que cumple con las regulaciones de privacidad. Con estas garantías, los clientes tendrán una mayor confianza en compartir datos con aplicaciones de IA que ofrecen productos o servicios. Es más probable que los clientes respondan a las solicitudes cuando el uso de sus datos se hace transparente y las opciones de exclusión son claras. Singh también señaló el tema del sesgo como uno importante en la confiabilidad. “Si sus datos de entrenamiento están sesgados, entonces la IA también lo estará”, señaló. “Esa es otra razón por la que es importante tener un humano en el circuito para verificar respuestas como recomendaciones. Las respuestas inapropiadas se reflejarán mal en una empresa, por lo que es importante ser consciente”.

Potenciando la red eléctrica

Construida sobre una infraestructura envejecida y enfrentando una fuerza laboral en declive, la red eléctrica también está aumentando en complejidad. La demanda está aumentando a medida que los centros de datos y el uso de los consumidores aumentan, en algunos casos, drásticamente, lo que pone a prueba las capacidades de la red. Además, con la integración de otras fuentes de energía eléctrica, como la solar y la eólica, en la red también aumentan los retos técnicos de la gestión de esta red heterogénea.

ThinkLabs AI Copilot es una aplicación de gestión de red basada en IA que ayuda tanto con la planificación como con la operación de la red. La planificación puede ser a corto o largo plazo, mientras que el centro de comando y control en tiempo real es la base de las operaciones. ThinkLabs AI Copilot proporciona un gemelo digital que modela el comportamiento del flujo de energía de la red y puede ejecutar flujos de trabajo agentes. Un gemelo digital de IA basado en la física entrenado en grandes conjuntos de datos sintéticos puede funcionar más rápidamente y responder mejor a escenarios de cuadrícula impredecibles en tiempo real que los modelos de ingeniería tradicionales.

ThinkLabs AI Copilot ayuda con la toma de decisiones mediante la ejecución de simulaciones en línea en tiempo real y la provisión de análisis oportunos. “El gemelo digital replica el flujo de energía base”, dijo Josh Wong, CEO de ThinkLabs AI. “Está impulsado por la ciencia y es más rápido, más barato y más resistente a los datos que las simulaciones de red tradicionales”. ThinkLabs AI Copilot cumple con los estándares comerciales y técnicos que operan para las empresas de servicios públicos y se basa en la experiencia humana.

Los flujos de trabajo agenciales proporcionan una recomendación para responder a una situación como la falta de capacidad. Los operadores humanos pueden aceptar la recomendación del sistema de IA o anularla. “La IA está entrenada en millones de escenarios”, explicó Wong, “pero el operador humano puede incorporar detalles adicionales, como el conocimiento sobre el clima inminente y puede usar su experiencia para modificar los consejos dados por ThinkLabs AI Copilot”. Los sistemas de gestión de red existentes no son nativos de IA y están profundamente arraigados en los sistemas de datos heredados, señaló Wong. “ThinkLabs AI no está tratando de reemplazarlos, sino que puede sobrecargarlos para que sean más proactivos”.

La base de la confianza en esta aplicación basada en IA es su adhesión a las simulaciones de primeros principios, incluida la construcción y prueba del modelo y el análisis de los resultados. Además, los estándares para el flujo de energía, como los estrictos límites de voltaje, están integrados en el modelo. “Las empresas de servicios públicos son notoriamente conservadoras”, observó Wong, “pero los puntos débiles son tan altos ahora que se necesitan soluciones. La capacidad de pronóstico está muy extendida, pero tener un flujo de energía habilitado por IA con grandes análisis de escenarios es único”.

El sistema también está diseñado para ser verificable. “Si un ingeniero quiere realizar una auditoría física, puede comparar nuestros resultados con un flujo de energía de ingeniería tradicional”, dijo Wong. “Esto hace que los resultados sean explicables, incluso en grandes conjuntos de datos, y permite a los usuarios validar las recomendaciones”. Un beneficio adicional es que los ingenieros y planificadores ya no necesitan dedicar tiempo a realizar análisis ad hoc; con las soluciones generativas de la IA, pueden asumir un papel más estratégico que aborde los objetivos a largo plazo.

La IA continúa incursionando en prácticamente todas las áreas de los negocios y la ciencia. Con una planificación cuidadosa y manteniendo a los humanos informados, es posible crear sistemas de IA que sean precisos, mejoren los resultados, aprovechen el conocimiento de manera efectiva y mantengan la seguridad. Esto contribuye a generar la confianza necesaria para continuar con los proyectos de IA.

Fuente: https://www.kmworld.com/Articles/Editorial/Features/Building-Trustable-AI—170210.aspx

Deja una respuesta