Imagen: BAILEY MAHON | unsplash

Los copilotos de IA transforman el trabajo, pero la dependencia excesiva puede provocar errores, incumplimientos normativos y pérdida de confianza. Descubra las señales de alerta y las mejores prácticas.

por David Barry

Los copilotos de IA transforman el trabajo, pero la dependencia excesiva puede provocar errores, incumplimientos normativos y pérdida de confianza. Descubra las señales de alerta y las mejores prácticas.

El auge de los copilotos de IA en las empresas ha transformado nuestra forma de trabajar. En tan solo unos años, la IA ha avanzado hasta la elaboración de informes, el resumen de datos, la identificación de riesgos e incluso la influencia en las decisiones empresariales. La idea de un “copiloto” es convincente: un asistente de IA que se encarga de las tareas más importantes mientras nosotros mantenemos el control. Pero ¿qué ocurre cuando estos asistentes de IA fallan?

Los fallos no siempre provienen de la tecnología en sí. Con mayor frecuencia, se deben a la disposición del usuario a ceder la responsabilidad sin plantear las preguntas difíciles. En sectores tan importantes como las finanzas, el derecho, la sanidad y el cumplimiento normativo, esa dependencia excesiva de la IA deriva en errores costosos, infracciones normativas o pérdida de confianza.

Confianza equivocada: cuando los copilotos de IA fallan en industrias de alto riesgo

Tiffany Perkins-Munn , directora de datos y análisis de JP Morgan Chase , ha sido testigo directo de los peligros de esta confianza indebida. «Los mayores errores que he visto no son los fallos de la IA en sí, sino una dependencia excesiva de la IA en entornos complejos y de alto riesgo, donde un solo error puede tener graves consecuencias financieras, legales o éticas», declaró a Reworked.

Por ejemplo, considere un equipo de cumplimiento normativo que depende de la IA para detectar transacciones fraudulentas. A primera vista, es eficiente, ya que los asistentes de IA analizan grandes cantidades de datos históricos y detectan anomalías con mayor rapidez que cualquier equipo humano. Pero los estafadores evolucionan, y la IA entrenada con el pasado podría pasar por alto las nuevas estrategias. Sin criterio humano para analizar las suposiciones del modelo, la organización se arriesga a una infracción de cumplimiento normativo. En estos escenarios, el fallo no es técnico, sino conductual. Los humanos fallan al externalizar el criterio a la IA . 

Este patrón se repite en todos los sectores. Un resumen legal con un formato perfecto o un informe de cumplimiento impecable pueden ser erróneos.  Guillermo Carreras, de BairesDev, describió cómo esta confianza infundada puede manifestarse en la vida real: aprobaciones automáticas de reembolsos o derechos de acceso aprobadas sin comprobaciones, decisiones de cumplimiento basadas en resúmenes erróneos o datos confidenciales que se filtran en las solicitudes y reaparecen en otros lugares.

Cada uno de estos fallos tiene la misma causa raíz: el perfeccionamiento de la IA enmascara sus errores y nadie se siente lo suficientemente responsable como para intervenir.

Señales de advertencia de una dependencia excesiva de la IA

Las señales de peligro son fáciles de pasar por alto porque la dependencia excesiva de la IA se infiltra. Perkins-Munn identifica la ausencia de cuestionamientos críticos como una señal de este avance. Cuando los equipos dejan de analizar los resultados, empiezan a caer en la idea de que “la IA lo dijo”, afirmó. Carreras añade otra: cuando el registro de auditoría se detiene en un bot. Si nadie puede identificar a quién corresponde una decisión, la organización ya está en problemas.

Las señales de alerta no solo están en el proceso, sino también en las personas, afirmó Louisa Loran , asesora ejecutiva global y consultora tecnológica. Cuando los empleados perciben que la IA ha asumido el control de la toma de decisiones, pueden empezar a sentirse innecesarios, y la dependencia excesiva conduce a la desconexión. «Esta sensación de no ser necesario tiene graves efectos psicológicos», advirtió. La productividad, la motivación y el compromiso disminuyen, lo que pone en riesgo no solo la calidad de las decisiones, sino también la salud de los empleados.

Hay un cambio cultural de “confiar y verificar” a “confiar plenamente”, coincidió Neal Riley, cofundador de Salable . A medida que los asistentes de IA mejoran, las organizaciones caen en la trampa de asumir que la supervisión de IA ya no es necesaria. Cuando desaparece la verificación, los pequeños errores pueden multiplicarse.

No todas las tareas conllevan el mismo riesgo. Los fallos son más graves en puestos que abordan matices, ambigüedad y ética. El cumplimiento normativo, la gestión de riesgos y los servicios legales son especialmente vulnerables, afirmó Perkins-Munn. Carreras añadió que el sector sanitario, donde la información errónea o los diagnósticos erróneos tienen consecuencias de vida o muerte.

Incluso fuera de sectores tradicionalmente de alto riesgo, los copilotos de IA en las empresas pueden fallar de maneras más sutiles, pero igualmente perjudiciales, afirmó Loran. Cuando las empresas utilizan la automatización genérica para procesos que definen su valor único, como las relaciones con los clientes o la innovación, corren el riesgo de mercantilizar lo que las distingue. El fracaso en este caso no es una demanda, sino la lenta erosión de la ventaja competitiva.

Tareas de alto riesgo que los humanos nunca deberían asignar a los asistentes de IA

Entre todos los analistas que contactamos, surge un fuerte consenso: ciertos dominios no pueden dejarse con seguridad en manos de la IA. Estos incluyen:

  • Juicio ético y dilemas complejos, que requieren empatía y razonamiento contextual.
  • Certificaciones reglamentarias y legales, donde la exactitud debe ser absoluta.
  • Diagnósticos médicos y decisiones de tratamiento que conllevan consecuencias humanas demasiado grandes como para arriesgarse a ellas.
  • Contratación y despido, donde están en juego la equidad, la privacidad y la dignidad humana.
  • Narración estratégica, innovación y pensamiento original: áreas donde la imaginación humana aún supera a las máquinas.

“Estas son las habilidades únicas que nos hacen humanos y, afortunadamente para nosotros, la IA aún no puede replicarlas”, dijo Perkins-Munn. 

Cómo prevenir fallos de la IA

La solución no es dejar de lado la IA. Su velocidad y eficiencia son demasiado valiosas como para ignorarlas. En cambio, las organizaciones deben rediseñar sus flujos de trabajo para que los copilotos no se conviertan en pilotos.

Carreras recomendó escalar la supervisión según el riesgo: permitir que la IA ejecute tareas de bajo riesgo de principio a fin, aplicar una revisión humana muestreada al trabajo de riesgo medio y mantener las decisiones de alto riesgo firmemente en manos humanas.

Igualmente importante es desarrollar la alfabetización en IA en todos los equipos . La alfabetización se centra menos en las habilidades de programación y más en la curiosidad y el escepticismo: saber dónde la IA es fuerte (reconocimiento de patrones, análisis de datos) y dónde es débil (casos extremos, contexto, ética), afirmó Perkins-Munn. 

“Verificar y evaluar sus resultados sigue siendo esencial”, añadió Riley. “Sin capacitación activa, los empleados corren el riesgo de usar la IA como si fuera poco más que un motor de búsqueda enriquecido o de automatizar ciegamente tareas que no se benefician en absoluto de la automatización”.

La infraestructura también influye. Cuando varios agentes de IA se superponen o entran en conflicto, los equipos de TI deben arbitrar, lo que desperdicia recursos, afirmó Rich Waldron , CEO y cofundador de Tray.ai.  Sin orquestación, gobernanza e integración entre sistemas, los copilotos pueden fracasar simplemente por trabajar con objetivos contrapuestos.

La dependencia excesiva de la IA no es inevitable: mantengamos a los humanos al volante

El futuro de los copilotos de IA no se trata de reemplazo, sino de colaboración. Perkins-Munn imagina un mundo donde los asistentes de IA aceleran el análisis, pero los humanos aplican el contexto, la empatía y el juicio. Loran considera que los líderes más exitosos son aquellos que se sienten cómodos invitando a la IA a su trabajo sin sentirse amenazados, logrando un equilibrio entre el escepticismo y la apertura. Los propios sistemas de IA evolucionarán para explicar mejor su lógica e incertidumbre, incluyendo a los humanos en el proceso en lugar de excluirlos, afirmó Riley.

La clave es la rendición de cuentas, afirmó Carreras. «Mientras que la IA se convierte en la primera en redactar y la analista más rápida, los humanos siguen siendo los responsables de la toma de decisiones», añadió. Esa rendición de cuentas, en particular la clara responsabilidad de cada decisión, es lo que diferenciará a los equipos que prosperan de los que fracasan.

El riesgo más insidioso de todos podría ser la erosión del pensamiento crítico. Perkins-Munn afirmó haber visto a personas tratar los resultados de la IA “como si fueran la ley en lugar de un punto de partida”, y es entonces cuando las organizaciones terminan tomando malas decisiones, problemas de cumplimiento normativo o errores de cara al público que minan la confianza.

En última instancia, los asistentes de IA fracasan no porque sean inherentemente poco fiables, sino porque los humanos olvidan su papel en la relación: guiar, cuestionar y aplicar su criterio. Cuando las organizaciones se dejan llevar por la lógica de “porque la IA lo dice”, ceden el control. Y en entornos de alto riesgo, es entonces cuando ocurren los fallos.

La verdadera prueba de la era de la IA no será el poder que alcancen los copilotos, sino la resistencia que les permitamos a la tentación de dejarlos pilotar el avión solos. Las empresas que triunfen serán las que prioricen el criterio humano, utilizando la IA para acelerar y escalar, pero recordando siempre quién es responsable del viaje.

Nota del editor: Lea más historias de advertencia sobre IA a continuación:

Acerca del autor

David Barry

David es un periodista europeo con 35 años de experiencia que ha dedicado los últimos 15 años al seguimiento del desarrollo de las tecnologías en el lugar de trabajo, desde los inicios de la gestión documental, la gestión de contenido empresarial y los servicios de contenido. Actualmente, con el desarrollo de nuevos modelos de trabajo remoto e híbrido, cubre la evolución de las tecnologías que facilitan la colaboración, la comunicación y el trabajo, y recientemente ha dedicado mucho tiempo a explorar los amplios alcances de la IA, la IA generativa y la IA general.

Fuente: https://www.reworked.co/collaboration-productivity/when-copilots-fail-the-risks-of-overreliance-on-ai/

Tagged:

Deja una respuesta