por TOM SIMONIT E
Los algoritmos pueden ayudar a diagnosticar una gama cada vez mayor de problemas de salud, pero los seres humanos deben estar entrenados para escuchar.
ENFERMERA DINA SARRO: No sabía mucho sobre inteligencia artificial cuando el Hospital de la Universidad de Duke instaló un software de aprendizaje automático para dar la alarma cuando una persona estaba en riesgo de desarrollar sepsis, una complicación de la infección que es la principal causa de muerte en los hospitales de EE. UU. El software, llamado Sepsis Watch, pasó alertas de un algoritmo que los investigadores de Duke habían sintonizado con 32 millones de puntos de datos de pacientes anteriores al equipo de enfermeras de respuesta rápida del hospital, codirigido por Sarro.
Pero cuando las enfermeras transmitían esas advertencias a los médicos, a veces se encontraban con indiferencia o incluso sospechas. Cuando los médicos preguntaron por qué la IA pensaba que un paciente necesitaba atención adicional, Sarro se encontró en una situación difícil. “No tendría una buena respuesta porque se basa en un algoritmo “, dice.
Sepsis Watch todavía está en uso en Duke, en gran parte gracias a que Sarro y sus compañeras enfermeras se reinventaron a sí mismos como diplomáticos de IA expertos en suavizar las relaciones entre humanos y máquinas. Desarrollaron nuevos flujos de trabajo que ayudaron a que los chillidos del algoritmo fueran más aceptables para las personas.
Un nuevo informe del grupo de expertos Data & Society lo llama un ejemplo del “trabajo de reparación” que a menudo debe acompañar a los avances tecnológicos disruptivos. La coautora Madeleine Clare Elish dice que las contribuciones vitales de personas de primera línea como Sarro a menudo se pasan por alto. “Estas cosas van a fallar cuando los únicos recursos se destinen a la tecnología en sí”, dice.
La mediación humano-máquina requerida en Duke ilustra el desafío de traducir un aumento reciente en la investigación de salud de la IA en una mejor atención al paciente. Muchos estudios han creado algoritmos que funcionan tan bien o mejor que los médicos cuando se prueban en registros médicos, como radiografías o fotografías de lesiones cutáneas. Pero no se comprende bien cómo emplear estos algoritmos de manera útil en hospitales y clínicas. Los algoritmos de aprendizaje automático son notoriamente inflexibles y opacos incluso para sus creadores . Los buenos resultados en un conjunto de datos de investigación cuidadosamente seleccionados no garantizan el éxito en el caótico mecanismo de un hospital.
Un estudio reciente sobre software para clasificar lunares descubrió que sus recomendaciones a veces convencían a los médicos experimentados de cambiar de un diagnóstico correcto a uno incorrecto. Cuando Google instaló un sistema capaz de detectar enfermedades oculares en diabéticos con un 90 por ciento de precisión en las clínicas de Tailandia, el sistema rechazó más del 20 por ciento de las imágenes de los pacientes debido a problemas como la iluminación variable. Elish se unió recientemente a la compañía y dice que espera seguir investigando la IA en el cuidado de la salud.
El proyecto de sepsis de Duke comenzó en 2016, a principios del reciente auge de la atención médica de la IA. Se suponía que iba a mejorar un sistema más simple de alertas emergentes de sepsis, que los trabajadores abrumados por notificaciones habían aprendido a descartar e ignorar.
Los investigadores del Instituto Duke para la Innovación en Salud razonaron que las alertas más específicas, enviadas directamente a las enfermeras de respuesta rápida del hospital, quienes a su vez informaron a los médicos, podrían obtener mejores resultados. Utilizaron el aprendizaje profundo, la técnica de inteligencia artificial favorecida por la industria de la tecnología, para entrenar un algoritmo en 50.000 registros de pacientes y crearon un sistema que escanea las historias clínicas de los pacientes en tiempo real.
“Estas cosas van a fallar cuando los únicos recursos se destinen a la tecnología en sí”.
MADELEINE CLARE ELISH
Sepsis Watch obtuvo un acercamiento antropológico porque los desarrolladores de Duke sabían que habría incógnitas en el bullicio del hospital y le pidieron ayuda a Elish. Pasó días observando y entrevistando a enfermeras y médicos del departamento de emergencias y descubrió que el algoritmo tenía una vida social complicada.
El sistema lanzó alertas en iPads monitoreados por las enfermeras, señalando a los pacientes considerados de riesgo moderado o alto de sepsis, o que ya habían desarrollado la condición mortal. Se suponía que las enfermeras debían llamar a un médico del departamento de emergencias de inmediato para los pacientes marcados como de alto riesgo. Pero cuando las enfermeras siguieron ese protocolo, se encontraron con problemas.
Algunos desafíos surgieron al interrumpir el flujo de trabajo habitual de un hospital ajetreado; muchos médicos no están acostumbrados a recibir instrucciones de las enfermeras. Otros eran específicos de la IA, como las veces que Sarro enfrentó demandas de saber por qué el algoritmo había dado la alarma. El equipo detrás del software no había incorporado una función de explicación porque, como ocurre con muchos algoritmos de aprendizaje automático, no es posible determinar por qué hizo una llamada en particular.
Una táctica que desarrollaron Sarro y otras enfermeras fue utilizar alertas de que un paciente tenía un alto riesgo de sepsis como una indicación para revisar el historial de esa persona a fin de estar preparado para defender las advertencias del algoritmo. Las enfermeras aprendieron a evitar transmitir alertas en determinados momentos del día y a averiguar si un médico no estaba de humor para escuchar la opinión de un algoritmo. “Mucho de eso fue averiguar la comunicación interpersonal”, dice Sarro. “Reuniríamos más información para armarnos para esa llamada telefónica”.
Elish también descubrió que, en ausencia de una forma de saber por qué el sistema señalaba a un paciente, las enfermeras y los médicos desarrollaban sus propias explicaciones incorrectas: una respuesta a la IA inescrutable. Una enfermera creía que el sistema buscaba palabras clave en un registro médico, pero no es así. Un médico aconsejó a sus compañeros de trabajo que se debía confiar en el sistema porque probablemente era más inteligente que los médicos.
Mark Sendak, un científico de datos y líder del proyecto, dice que la caracterización incorrecta es un ejemplo de cómo los hallazgos de Elish fueron más reveladores y preocupantes de lo esperado. Su equipo cambió su capacitación y documentación para el sistema de alerta de sepsis como resultado de los comentarios de Sarro y otras enfermeras. Sendak dice que la experiencia lo ha convencido de que los proyectos de salud de inteligencia artificial deberían dedicar más recursos al estudio del desempeño social y técnico. “Me encantaría que fuera una práctica estándar”, dice. “Si no invertimos en reconocer el trabajo de reparación que la gente está haciendo, estas cosas fallarán”. Sarro dice que, en última instancia, la herramienta pareció mejorar la atención de la sepsis del hospital.
Muchos más proyectos de inteligencia artificial pueden entrar pronto en el complicado territorio que encontró Duke. Amit Kaushal, profesor asistente en Stanford, dice que en la última década los avances en el aprendizaje automático y conjuntos de datos médicos más grandes han hecho que sea casi una rutina hacer cosas que los investigadores alguna vez soñaron, como que los algoritmos den sentido a las imágenes médicas. Pero integrarlos en la atención al paciente puede resultar más desafiante. “Para algunos campos, la tecnología ya no es el factor limitante, son estos otros problemas”, dice Kaushal.
Kaushal ha contribuido a un proyecto de Stanford que prueba sistemas de cámaras que pueden alertar a los trabajadores de la salud cuando no se desinfectan las manos y dice que los resultados son prometedores. Sin embargo, si bien es tentador ver la IA como una solución rápida para el cuidado de la salud, demostrar el valor de un sistema se reduce a una investigación convencional y, a menudo, lenta. “La prueba real está en el estudio que dice ‘¿Mejora esto los resultados de nuestros pacientes?’”, Dice Kaushal.
Los resultados de un ensayo clínico completado el año pasado deberían ayudar de alguna manera a responder esa pregunta para el sistema de sepsis de Duke, que ha sido licenciado a una startup llamada Cohere Med . Sarro, ahora enfermera practicante en un sistema de salud diferente, dice que su experiencia la abre a trabajar con más herramientas de inteligencia artificial, pero también desconfía de sus limitaciones. “Son útiles, pero solo una parte del rompecabezas”.
Fuente: https://www.wired.com/story/ai-help-patients-doctors-understand/