Desde que el aprendizaje automático se volvió real, hemos calmado nuestros nervios ante la posibilidad de que sustituya a los humanos proponiendo sistemas de “humanos en el circuito”. Suele ser una buena idea, pero su naturaleza está cambiando, y no solo por los avances técnicos. Nuestra relación con la tecnología también está cambiando.

por David Weinberger

Un ejemplo clásico de un humano en el circuito es una IA que puede predecir qué células de una biopsia son precancerosas. En una implementación perfecta, no solo se mostrarían los resultados de la máquina a un médico, sino que el sistema también aprendería de las identificaciones que el humano corrige. En un sistema más perfecto, los resultados de seguimiento se retroalimentarían para mejorar aún más la precisión del sistema. Esto sería que los humanos y la IA aprenderían mutuamente. ¡Es algo maravilloso! Imperfecto, sí, pero mejor que lo que reemplaza, y eso lo hace maravilloso.
Claro que tiene sus problemas. En primer lugar, la participación humana solo funciona cuando hay tiempo para una consulta humana.

Por ejemplo, cuando un vehículo eléctrico está en modo de “conducción autónoma”, no queremos que anticipe todas sus decisiones, lo que le llevaría a decir: “Estoy pensando en hacer un viraje brusco para evitar la carga de horcas que ese camión acaba de dejar caer a 3 metros delante de nosotros. ¿Qué te parece?”.

En segundo lugar, solo queremos participación humana cuando la experiencia humana esté a la altura. Por ejemplo, si la IA ha desarrollado un historial significativamente mejor en el diagnóstico de algunos tipos de cáncer antes que los humanos, entonces tal vez queramos excluir a los humanos del proceso. Más controvertido aún, si la IA puede aterrizar un avión siendo sensible a cien variables diferentes que un humano no podría integrar, la opción más segura podría ser desactivar el control de los pilotos humanos. (Por qué el ejemplo del avión es más controvertido que el del diagnóstico es una pregunta interesante).

En tercer lugar, ciertamente no queremos incluir a un humano en el proceso si hacerlo realmente disminuye la precisión del sistema. Un artículo del MIT de Michelle Vaccaro, Abdullah Almaatouq y Thomas Malonek, “When Combinations of Humans and AI Are Useful: A Systematic Review and Meta-Analysis”, descubrió que la IA por sí sola era sustancialmente mejor detectando reseñas falsas de hoteles que cuando se incluía a un humano en el proceso (arxiv.org/abs/2405.06087). Un estudio de Stanford de 2025 realizado por Hanae Armitage descubrió que añadir médicos a un proceso de diagnóstico de IA no aumentaba su precisión (med. stanford.edu/news/all-news/2025/02/physician-decision-chatbot.html). Al menos en este caso, los humanos degradan el proceso. Jacob Nielsen cita a otros en su ensayo sobre Substack (jakobnielsenphd.substack.com/p/humans-negative-value).

Pero todos estos ejemplos asumen que los humanos participan en el proceso para que este pueda tomar la decisión. Muchos, si no la mayoría, ya tenemos experiencia en procesos de IA que incluyen determinar cuál sería una buena decisión.

Pasando a los humanos en el flujo

Llamémoslos humanos en el flujo, no humanos en el bucle. Aquí hay un flujo en el que muchos ya participamos:

Vamos de vacaciones familiares a la Ciudad de México. Le pedimos a la IA que sugiera sitios para visitar. La IA supera las expectativas, como suele ocurrir, y nos devuelve no solo una lista, sino también un itinerario que agrupa sus ocho sitios recomendados por ubicación.

Pero esa no es la parte del flujo. Luego añadimos que también viajamos con tres niños de 10, 7 y 4 años. La IA recalcula y analiza la idoneidad de cada uno de los ocho sitios para los niños más pequeños. Descarta cuatro y los reemplaza por otros que podrían ser atractivos para un rango de edades más amplio.

Genial, pero luego le decimos a la IA que al más pequeño le asustan las multitudes, al mediano le gusta saber cómo es la vida cotidiana de la gente en la ciudad y al de 10 años le gusta la ciencia ficción.

La IA se ajusta a medida que respondemos a las nuevas posibilidades con nueva información: a uno le gustaría pasar tiempo en un parque, a otro le dan miedo las alturas, y así sucesivamente.

Nos dejamos llevar, no solo respondiendo a la precisión de las sugerencias de la IA, sino también, basándonos en ellas, refinando lo que se consideraría una visita exitosa. Ese es un gran paso más allá de ser un punto de control humano para la precisión de los resultados.

Que un especialista humano revise los resultados de un sistema de diagnóstico de IA es inmensamente valioso, ya que incluso si el sistema alcanza un grado notable de precisión, el costo de un error puede ser catastrófico. Pero el ciclo al que nos dirigimos se parece mucho más a una conversación humana que a un ciclo. Es similar, en aspectos importantes, a la conversación que tendrías con tu amigo que creció en la Ciudad de México, ya que se informan mutuamente sobre lo que funcionaría para sus hijos. Se profundiza en los detalles tanto de los niños como de los lugares que podrían visitar. Se descubren posibilidades no solo de la Ciudad de México, sino también de los propios hijos.

El sistema te ayuda a expresar el profundo conocimiento tácito que tienes sobre tus propios hijos. Y si hay algo que KM ha aprendido sobre el conocimiento en los últimos 20 años, es la importancia del conocimiento tácito.

A continuación, el boletín completo de KMWorld:

Fuente: https://www.kmworld.com/

Deja una respuesta