por Eric Markowitz
“A la gente no le importa cuánto sabes hasta que saben cuánto te importa”. —
Theodore Roosevelt
Los beneficios de la IA son inmensos. Eficiencia inigualable. Velocidad. Comodidad. Pero toda ventaja tiene un precio. Y creo que la IA es un ejemplo perfecto.
La IA puede simplificar radicalmente nuestras vidas (y ciertamente la uso a menudo), pero al mismo tiempo, amenaza con erosionar los cimientos mismos de la confianza: la confianza en la información, la confianza en las instituciones e incluso la confianza entre nosotros.
En la era del trabajo del conocimiento, el valor se medía a menudo por el coeficiente intelectual. Pero, como argumenta Kevin Kelly, en la era de la IA, la métrica más crucial está cambiando. Lo que más importa ya no es solo la inteligencia, sino lo que él llama el Coeficiente de Confianza: la capacidad de ser auténtico y generar confianza en un mundo donde las máquinas pueden imitar prácticamente todo lo demás.
«La confianza es un término amplio que se irá desglosando a medida que se integre en el ecosistema de la IA», escribe Kevin. «En parte seguridad, en parte fiabilidad, en parte responsabilidad y en parte rendición de cuentas, estos conceptos se irán precisando a medida que los sinteticemos y los medimos. La confianza será un tema del que hablaremos mucho más en la próxima década».
- Cita clave: «Actualmente, las IA no tienen responsabilidades. Si se equivocan, no garantizan solucionarlo. No se responsabilizan de los problemas que puedan causar con sus errores. De hecho, esta diferencia es actualmente la clave entre los empleados humanos y los trabajadores de IA. La responsabilidad recae en los humanos. Asumen la responsabilidad de su trabajo; se contrata a humanos porque se confía en que harán bien el trabajo. Si no es así, lo repiten y aprenden a no volver a cometer el mismo error. Esto no ocurre con las IA actuales. Esto hace que sea difícil confiar en ellas».
Fuente: https://www.nightviewcapital.com/
El cociente de confianza (CCT)
por Kevin Kelly
Donde hay autonomía, la confianza es necesaria. Si criamos a nuestros hijos para que sean independientes, necesitan ser autónomos y debemos confiar en ellos. (La crianza es una escuela para aprender a confiar). Si creamos un sistema de agentes autónomos, necesitamos mucha confianza entre ellos. Si delego decisiones a una IA, debo confiar en ella, y si esa IA depende de otras IA, debe confiar en ellas. Por lo tanto, necesitaremos desarrollar un sistema de confianza muy robusto que pueda detectar, verificar y generar confianza entre humanos y máquinas, y aún más importante, entre máquinas.
La investigación aplicable en confianza sigue dos direcciones: comprender mejor cómo las personas confían entre sí y aplicar algunos de esos principios de forma abstracta a sistemas mecánicos. Los tecnólogos ya han creado sistemas de confianza primitivos para gestionar la seguridad de las nubes de datos y las comunicaciones. Por ejemplo, ¿debería permitirse que este dispositivo se conecte? ¿Se puede confiar en que hará lo que dice hacer? ¿Cómo verificamos su identidad y su comportamiento? Y así sucesivamente.
Hasta ahora, estos sistemas no se ocupan de agentes adaptativos, cuyos comportamientos, identidades y habilidades son mucho más fluidos, opacos, cambiantes y también más relevantes. Esto hace que confiar en ellos sea más difícil y, al mismo tiempo, más importante.
Hoy en día, cuando compro una IA, la precisión es la cualidad principal que busco. ¿Me dará respuestas correctas? ¿Cuánto alucina? Estas cualidades son indicadores de confianza. ¿Puedo confiar en que la IA me dará una respuesta fiable? A medida que las IA empiezan a hacer más, a salir al mundo a actuar, a tomar decisiones por nosotros, su fiabilidad se vuelve crucial.
La confianza es un término amplio que se irá desglosando a medida que se integre en el ecosistema de la IA. Parte seguridad, parte fiabilidad, parte responsabilidad y parte rendición de cuentas, estos conceptos se irán precisando a medida que los sinteticemos y los mediéramos. La confianza será un tema del que hablaremos mucho más en la próxima década.
A medida que las capacidades y habilidades de la IA se diferencian —algunas son mejores para ciertas tareas que otras—, las reseñas sobre ellas empezarán a incluir su fiabilidad. Al igual que otros productos manufacturados tienen especificaciones anunciadas —como eficiencia de combustible, gigabytes de almacenamiento, número de píxeles, tiempo de actividad o tasas de curación—, los proveedores de IA anunciarán el nivel de confianza de sus agentes. ¿Cuán fiables son? Incluso si esta calidad no se anuncia, debe medirse internamente para que la empresa pueda seguir mejorándola.
Cuando dependemos de nuestro agente de IA para reservar billetes de vacaciones, renovar nuestras recetas médicas o reparar nuestro coche, depositamos una gran confianza en él. No es difícil imaginar situaciones en las que un agente de IA pueda intervenir en una decisión de vida o muerte. Incluso podría haber consecuencias legales según nuestra confianza en los agentes de IA. ¿Quién es responsable si el agente comete un error?
Actualmente, las IA no tienen responsabilidades. Si se equivocan, no garantizan solucionarlo. No se responsabilizan de los problemas que puedan causar con sus errores. De hecho, esta diferencia es actualmente la clave entre los empleados humanos y los trabajadores de IA. La responsabilidad recae en los humanos. Asumen la responsabilidad de su trabajo; se contrata a humanos porque se confía en que harán bien el trabajo. Si no es así, lo repiten y aprenden a no volver a cometer el mismo error. Esto no ocurre con las IA actuales. Esto dificulta la confianza en ellas.
Los agentes de IA formarán una red, un sistema de IA que interactúan, y ese sistema puede asignar un factor de riesgo a cada tarea. Algunas tareas, como comprar billetes de avión o recetar medicamentos, tendrían puntuaciones de riesgo que reflejarían posibles resultados negativos frente a la conveniencia positiva. Cada agente de IA tendría una puntuación de riesgo dinámica según sus permisos. Los agentes también acumularían puntuaciones de confianza basadas en su desempeño anterior. La confianza es muy asimétrica; puede requerir muchas interacciones a lo largo del tiempo para ganar valor, pero puede perderla instantáneamente, con un solo error. Las puntuaciones de confianza cambiarían constantemente y serían monitoreadas por el sistema.
La mayor parte del trabajo de IA se realizará de forma invisible, mediante intercambios entre agentes. La mayor parte del resultado generado por un agente de IA promedio solo será visto y consumido por otro agente de IA, uno entre billones. Muy poco del trabajo total de IA será visto o percibido por los humanos. El número de agentes de IA con los que interactuemos será muy reducido, aunque adquirirán una gran importancia para nosotros. Si bien las IA con las que interactuemos serán escasas estadísticamente, nos importarán enormemente y su confianza será primordial.
Para ganarse nuestra confianza, un agente de IA externo necesita conectar con agentes de IA en los que también pueda confiar. Por lo tanto, gran parte de sus capacidades residirá en la habilidad de seleccionar y explotar las IA más fiables que encuentre. Podemos esperar nuevas estafas, como engañar a los agentes de IA para que confíen en agentes falsos, falsificar certificados de confianza, falsificar identificaciones y suplantar tareas. Al igual que en el mundo de la seguridad en internet, un agente de IA es tan fiable como su subagente más débil. Y dado que las subtareas pueden asignarse a muchos niveles inferiores, la gestión de la calidad será una prioridad para las IA.
Asignar la culpa correcta por los errores y rectificarlos también se convierte en una habilidad muy valorada para las IA. Todos los sistemas, incluidos los mejores humanos, cometen errores. No puede haber un sistema a prueba de errores. Por lo tanto, gran parte de la alta confianza reside en la responsabilidad de corregir los propios errores. Los agentes más confiables serán aquellos capaces (¡y confiables!) de corregir los errores que cometen, con suficiente inteligencia para enmendarlos y hacerlo bien.
En última instancia, el grado de confianza que le otorgamos a nuestro principal agente de IA —con quien interactuamos a diario— será una puntuación que se presumirá, se cuestionará, se compartirá y se publicitará ampliamente. En otros ámbitos, como un coche o un teléfono, damos por sentada la fiabilidad.
La IA es mucho más compleja y personal, a diferencia de otros productos y servicios en nuestras vidas actuales,
La confiabilidad de los agentes de IA será crucial y una preocupación constante. Su coeficiente de confianza (CT) podría ser más importante que su coeficiente intelectual (CI). Seleccionar y retener agentes con un alto CT será muy similar a contratar y conservar a empleados humanos clave.
Sin embargo, tendemos a evitar asignar puntuaciones numéricas a los humanos. El sistema de agentes de IA, por otro lado, tendrá todo tipo de métricas que usaremos para decidir cuáles queremos que nos ayuden a gestionar nuestras vidas. Las IA con las puntuaciones más altas probablemente también sean las más caras. Se rumoreará que existen algunas con puntuaciones casi perfectas que no se pueden permitir. Sin embargo, la IA es un sistema que mejora con rendimientos crecientes, lo que significa que cuanto más se usa, mejor se vuelve, por lo que las mejores IA estarán entre las más populares. Los multimillonarios usan el mismo Google que nosotros y es probable que usen las mismas IA que nosotros, aunque podrían tener interfaces intensamente personalizadas para ellas. Estas también necesitarán tener los coeficientes de confianza más altos.
Toda empresa, y probablemente toda persona, tendrá un agente de IA que la represente dentro del sistema de IA ante otros agentes. Asegurarse de que su agente de representación personal tenga una alta puntuación de confianza será parte de su responsabilidad. Es similar a la puntuación crediticia de los agentes de IA. Querrá un alto coeficiente de confianza (TQ) para el suyo, ya que algunos agentes de IA no interactúan con otros agentes con TQ bajos. Esto no es lo mismo que tener una puntuación social personal (como se dice que tienen los chinos). Esta no es su puntuación, sino la puntuación TQ de su agente, que lo representa ante otros agentes. Usted podría tener una sólida reputación en cuanto a puntuación social, pero su agente podría ser pésimo. Y viceversa.
En las próximas décadas de la era de la IA, el coeficiente intelectual (CIT) se considerará más importante que el coeficiente intelectual (CI).
