GenAI no es una solución para sistemas defectuosos. Descubra cómo preparar a su organización para el verdadero éxito con la IA.
por David Barry
- El costo oculto de la mala documentación en las implementaciones de IA
- La brecha de visibilidad de la productividad de la IA
- ¿IA como atajo? He aquí por qué fracasa esta estrategia.
- Incorporación del conocimiento del flujo de trabajo a la IA
- GenAI no funcionará hasta que sus operaciones lo hagan
- Acerca del autor
La inteligencia artificial está transformando rápidamente las industrias, y las empresas líderes la están implementando para automatizar tareas repetitivas, optimizar flujos de trabajo y generar nuevas fuentes de valor. Las organizaciones que adoptan herramientas de IA generativa (GenAI) reportan mejoras promedio de rendimiento del 66%, con mejoras aún mayores en tareas complejas.
Sin embargo, a medida que las organizaciones se apresuran a implementar la IA generativa, ha surgido un patrón preocupante: las empresas utilizan la tecnología para enmascarar problemas operativos fundamentales en lugar de resolverlos. Líderes del sector en consultoría, gestión de personal, ciencia de datos y desarrollo de software advierten que la IA generativa a menudo actúa como una costosa fachada que oculta procesos defectuosos, amplificando las disfunciones en lugar de solucionarlas.
El costo oculto de la mala documentación en las implementaciones de IA
El problema más crítico que enfrenta la implementación de GenAI se centra en la calidad de los datos y la documentación subyacentes. «La mayor falla reside en la existencia de datos previos erróneos o problemas de calidad de los datos», afirmó Melissa Copeland , fundadora de Blue Orbit. «Cuando los datos que alimentan las aplicaciones GenAI son contradictorios o inexactos, el sistema extrae conclusiones incorrectas, un problema que se agrava por la frecuente ausencia de supervisión humana».
Copeland basó la implementación exitosa de GenAI en dos componentes: datos limpios y de alta calidad con controles adecuados, y procesos de trabajo bien documentados que permiten rastrear los pasos y aislar los problemas cuando es necesario. Sin estos elementos, las soluciones simplemente generan información errónea y frustrante.
La mayoría de las empresas carecen de una visión clara de cómo funcionan realmente sus flujos de trabajo, afirmó Ashish Patel , fundador de Simpat Tech. Cada equipo utiliza herramientas diferentes, y cada uno mantiene su propia versión del proceso, que no se ajusta a la realidad. Cuando GenAI se implementa en un flujo de trabajo con datos inconsistentes y pasos incoherentes, se intensifica la desconexión y se alimenta el caos.
Los flujos de trabajo bien documentados requieren más que diagramas de flujo. Deben incluir objetivos específicos, entradas y salidas claras, pasos ordenados con responsabilidades asignadas, puntos de decisión con su lógica asociada y estrategias de respaldo, herramientas y sistemas identificados, y requisitos de cumplimiento aplicables.
Patel ofreció una prueba práctica de la calidad de la documentación: si la gente dice que la información está en la documentación, pero aun así tiene que explicarla en vivo, ese proceso no está realmente documentado. Otra señal de alerta: la documentación está desactualizada al abrirla, o cuando diferentes equipos mantienen sus propias versiones privadas.
La brecha de visibilidad de la productividad de la IA
Existe una discrepancia en la comprensión que las organizaciones tienen del uso de la IA, según declaró Jared Brown , cofundador y director ejecutivo de Hubstaff, a Reworked. Si bien el 85 % de los profesionales afirma usar IA, solo el 4 % de sus horas de trabajo registradas involucran herramientas de IA. Esta brecha revela la poca visibilidad que la mayoría de las empresas tienen sobre cómo se realiza el trabajo.
Los líderes necesitan rastrear el tiempo y los pasos necesarios para completar una tarea sin IA, y luego medir las mejoras cuando se implementa la IA, dijo Brown. Sin embargo, las horas por sí solas no deberían ser la única medida.
En cambio, los líderes deberían medir cómo fluye el trabajo a través de sus sistemas y cuantificar cómo la IA mejora esos procesos. Según datos anónimos del software de seguimiento de Hubstaff, los equipos que utilizan IA registraron 30 minutos menos de tiempo improductivo al día.
El principio que defiende Brown es: la claridad primero, la IA después. Solo cuando los líderes comprenden su situación actual pueden ver hacia dónde puede llevar la GenAI su futuro.
“La IA no es una solución instantánea, sino una herramienta que requiere tiempo para adaptarse e integrarse en los procesos de negocio existentes”, afirmó Juan José López Murphy , director de ciencia de datos e IA en Globant. Comprender la etapa de un proyecto y por qué el rendimiento se alinea con ella se vuelve fundamental.
Durante las etapas de prueba de concepto, donde muchos proyectos se abandonan, los equipos pueden estar explorando la tecnología o intentando comprender los factores del caso de uso que conducen a su adopción. Sin claridad en estos objetivos, los equipos no verán el valor de continuar.
Algunos proyectos carecen de métricas claras directamente relacionadas con el valor, sino que afectan la adaptabilidad o la capacidad de usar tecnologías en el futuro. Fijar el precio de estos resultados es complejo, lo que hace que no se incluyan en los cálculos del ROI y, en última instancia, infravaloren el proyecto.
¿IA como atajo? He aquí por qué fracasa esta estrategia.
“Cuando la primera pregunta es ‘¿cómo integramos la IA en esto?’ en lugar de ‘¿por qué este proceso es lento o tedioso en primer lugar?’, sabes que están buscando un atajo”, dijo Patel. Otro indicador: cuando las personas quieren que la IA resuelva el caos para no tener que limpiar datos, sistemas o la propiedad. Si nadie puede responder a quién pertenece el proceso, no están listos para la IA.
Las consecuencias se hacen visibles en las aplicaciones de cara al cliente. Copeland describió situaciones en las que pacientes o clientes usaban aplicaciones GenAI y se atascaban en bucles. Cuando se les indicaba programar una cita, pero los datos del sistema eran incorrectos, el sistema generaba un error y les indicaba que llamaran a un número. Esto suponía una pérdida de tiempo, irritaba a los usuarios y requería una llamada telefónica, lo que empeoraba la situación de las organizaciones.
Cuando los procesos ya producen resultados consistentes y de alta calidad, y el problema es el volumen o la velocidad, GenAI ayuda, afirmó Patel. Sin embargo, si el proceso está lleno de excepciones y correcciones manuales, la IA generalmente acelerará la confusión. Su prueba: describir el proceso actual en pocos pasos con entradas y salidas conocidas. Si no puede, la IA no es su primera opción.
La IA no oculta los problemas operativos , sino que los amplifica. Si los datos y las entradas son confusos, los resultados de la IA exponen la inconsistencia de los sistemas y procesos subyacentes.
Incorporación del conocimiento del flujo de trabajo a la IA
El desafío del conocimiento tácito impide una implementación eficaz de GenAI. El enfoque directo de Copeland para gestionar el conocimiento del flujo de trabajo que solo está en la mente de las personas: documento, documento, documento. Si no cuenta con la documentación adecuada, comience con un mapa de los procesos más importantes y de uso más frecuente.
No se puede construir una IA o automatización seria basándose en el conocimiento tradicional, afirmó Patel. El primer paso consiste en extraer ese conocimiento mediante entrevistas estructuradas, seguimiento y mapas de procesos, y luego validarlo con quienes realizan el trabajo. Solo después de capturar y estandarizar ese conocimiento, tiene sentido incorporarlo en herramientas basadas en IA.
Las brechas de gobernanza son el mayor riesgo en la implementación de GenAI. Copeland identificó la falta de un propietario de producto o un propietario asignado para la capacidad de GenAI como la brecha de gobernanza más común cuando las empresas asumen que GenAI se autocorrige. Las organizaciones necesitan a alguien que controle las entradas y salidas, y que sea responsable de la precisión, la eficiencia y los resultados generales.
Patel señaló un error aún mayor: la creencia de que la IA, de alguna manera, aprende a sortear las entradas incorrectas y las reglas imprecisas. En realidad, las organizaciones aún necesitan políticas claras sobre qué datos utiliza el modelo, quién revisa los resultados, cómo se gestionan los errores y qué se registra. Cuando faltan estos fundamentos, las decisiones de la IA se convierten en una caja negra, y solo se detectan los problemas cuando un cliente, un organismo regulador o un tribunal los señala.
GenAI suele crear cuellos de botella en lugar de eliminarlos, sobre todo en los procesos de revisión y aprobación. La IA genera contenido rápidamente, pero luego todo se complica en la revisión humana porque no existe un estándar claro sobre lo que es aceptable.
Otro punto de estrangulamiento común ocurre en el acceso a los datos: si la IA tiene que extraer datos de 10 sistemas fragmentados, el nuevo cuello de botella se convierte en la capa de integración y gobernanza.
GenAI no funcionará hasta que sus operaciones lo hagan
La cuestión es que GenAI es potente, pero solo cuando se aplica sobre bases operativas sólidas. Las organizaciones que se apresuran a implementar IA sin abordar primero la calidad de los datos, la documentación de procesos, los sistemas de medición y las estructuras de gobernanza se están preparando para una disfunción amplificada en lugar de mejoras.
La tecnología no oculta los flujos de trabajo fallidos. Los expone, a menudo en el peor momento.
El éxito con GenAI significa que las organizaciones deben resistir la tentación de tomar atajos.
- Documente sus procesos con suficiente detalle para que coincidan con lo que hace la gente.
- Extraiga el conocimiento de las cabezas de sus empleados y estandarícelo.
- Establecer una propiedad y responsabilidad claras para los sistemas de IA.
- Mida no sólo si las personas usan IA, sino si mejora el modo en que fluye el trabajo en su organización.
Estas tareas poco atractivas no generan titulares ni presentaciones en conferencias. Pero representan la única vía fiable para cumplir la promesa de GenAI, en lugar de convertirse en una costosa capa más del caos operativo.
La elección es clara: arreglar los cimientos o amplificar las grietas.
Artículos relacionados:
- Por qué las empresas sobreestiman el ROI de la IA generativa : los expertos advierten que, a medida que las empresas se apresuran a adoptar GenAI, las afirmaciones sobre el ROI impulsadas por la publicidad ignoran la gobernanza, la disciplina de datos y el cambio estructural que requiere el valor real.
- Modelando negocios con IA : Modelar el trabajo con IA no consiste en intentar reemplazar a todos los humanos. Se trata de comprender cómo se realiza el trabajo para poder optimizarlo.
- Por qué la preparación para la IA depende de la colaboración entre la arquitectura de datos, la estructura de datos y los grafos de conocimiento : la IA no puede aportar valor sin la pila de datos adecuada. Descubra cómo la arquitectura, la estructura de datos y los grafos de conocimiento sientan las bases para una IA fiable y escalable.
Acerca del autor
David es un periodista europeo con 35 años de experiencia que ha dedicado los últimos 15 años al seguimiento del desarrollo de las tecnologías en el lugar de trabajo, desde los inicios de la gestión documental, la gestión de contenido empresarial y los servicios de contenido. Actualmente, con el desarrollo de nuevos modelos de trabajo remoto e híbrido, cubre la evolución de las tecnologías que facilitan la colaboración, la comunicación y el trabajo, y recientemente ha dedicado mucho tiempo a explorar los amplios alcances de la IA, la IA generativa y la IA general.
Fuente: https://www.reworked.co/digital-workplace/stop-using-ai-to-hide-your-broken-processes/