por Jason Dorrier
Imagínese una colección de libros, tal vez millones o incluso miles de millones, arrojados al azar por los editores en un campo por montones. Todos los días la pila crecería exponencialmente.
Esos libros están llenos de conocimientos y respuestas. Pero, ¿cómo los encontraría un buscador? Al carecer de organización, los libros son inútiles.
Esta es la Internet en bruto en todo su esplendor sin filtrar. Es por eso que la mayoría de nuestras búsquedas de “iluminación” en línea comienzan con Google (y sí, todavía hay otros motores de búsqueda). Los tentáculos algorítmicos de Google escanean e indexan todos los libros de esa pila impía. Cuando alguien ingresa una consulta en la barra de búsqueda, el algoritmo de búsqueda hojea su versión indexada de Internet, muestra las páginas y las presenta en una lista clasificada de los principales resultados.
Este enfoque es increíblemente útil. Tan útil, de hecho, que no ha cambiado fundamentalmente en más de dos décadas. Pero ahora, los investigadores de inteligencia artificial de Google, la misma empresa que estableció el listón para los motores de búsqueda en primer lugar, están esbozando un plan para lo que podría suceder a continuación.
En un artículo sobre el servidor de preimpresión arXiv , el equipo sugiere que la tecnología para hacer que Internet sea aún más fácil de buscar está al alcance de la mano. Dicen que los grandes modelos de lenguaje ( algoritmos de aprendizaje automático como el GPT-3 de OpenAI) podrían reemplazar por completo el sistema actual de indexar, recuperar y luego clasificar.
¿Es la IA el motor de búsqueda del futuro?
Cuando buscan información, a la mayoría de las personas les encantaría preguntarle a un experto y obtener una respuesta matizada y confiable, escriben los autores. En cambio, lo buscan en Google. Esto puede funcionar o salir terriblemente mal. Como cuando te succionan por una madriguera de pánico relacionada con la salud a las dos de la mañana.
Aunque los motores de búsqueda muestran fuentes (con suerte de calidad) que contienen al menos partes de una respuesta, la carga recae en el buscador para escanear, filtrar y leer los resultados para reconstruir esa respuesta lo mejor que pueda.
Los resultados de búsqueda han mejorado a pasos agigantados a lo largo de los años. Aún así, el enfoque está lejos de ser perfecto.
Existen herramientas de preguntas y respuestas, como Alexa, Siri y Google Assistant. Pero estas herramientas son frágiles, con un repertorio limitado (aunque creciente) de preguntas que pueden responder. Aunque tienen sus propias deficiencias (más sobre las que aparecen a continuación), los modelos de lenguaje grandes como GPT-3 son mucho más flexibles y pueden construir respuestas novedosas en lenguaje natural a cualquier consulta o mensaje.
El equipo de Google sugiere que la próxima generación de motores de búsqueda podría sintetizar lo mejor de todos los mundos, integrando los principales sistemas de recuperación de información de hoy en día en IA a gran escala.
Vale la pena señalar que el aprendizaje automático ya está funcionando en los motores de búsqueda clásicos de indexación, recuperación y clasificación. Pero en lugar de simplemente aumentar el sistema, los autores proponen que el aprendizaje automático podría reemplazarlo por completo.
“¿Qué pasaría si elimináramos la noción de índice por completo y la reemplazáramos por un modelo grande previamente entrenado que codifica de manera eficiente y efectiva toda la información contenida en el corpus?” Donald Metzler y los coautores escriben en el artículo. “¿Qué pasaría si la distinción entre recuperación y clasificación desapareciera y en su lugar hubiera una única fase de generación de respuesta?”
Un resultado ideal que imaginan es un poco como la computadora de la nave espacial Enterprise en Star Trek . Los buscadores de información plantean preguntas, el sistema responde en forma conversacional, es decir, con una respuesta en lenguaje natural como se esperaría de un experto, e incluye citas autorizadas en su respuesta.
En el artículo, los autores esbozan lo que llaman un ejemplo ambicioso de cómo podría verse este enfoque en la práctica. Un usuario pregunta: “¿Cuáles son los beneficios para la salud del vino tinto?” El sistema devuelve una respuesta matizada en prosa clara de múltiples fuentes autorizadas, en este caso WebMD y la Clínica Mayo, destacando los posibles beneficios y riesgos de beber vino tinto.
Sin embargo, no tiene por qué terminar ahí. Los autores señalan que otro beneficio de los modelos de lenguaje grandes es su capacidad para aprender muchas tareas con solo un pequeño ajuste (esto se conoce como aprendizaje de una sola vez o de pocas veces). Por lo tanto, es posible que puedan realizar las mismas tareas que realizan los motores de búsqueda actuales, y también docenas más.
Sigue siendo solo una visión
Hoy, esta visión está fuera de alcance. Los grandes modelos de lenguaje son lo que los autores llaman “diletantes”.
Los algoritmos como GPT-3 pueden producir una prosa que, a veces, es casi indistinguible de los pasajes escritos por humanos, pero también son propensos a respuestas sin sentido. Peor aún, reflejan descuidadamente los sesgos incrustados en sus datos de entrenamiento, no tienen sentido de comprensión contextual y no pueden citar fuentes (o incluso separar fuentes de alta calidad y baja calidad) para justificar sus respuestas.
“Se percibe que saben mucho, pero su conocimiento es superficial”, escriben los autores. El documento también establece los avances necesarios para cerrar la brecha. De hecho, muchos de los desafíos que describen se aplican al campo en general.
Un avance clave sería ir más allá de los algoritmos que solo modelan las relaciones entre términos (como palabras individuales) a algoritmos que también modelen la relación entre las palabras de un artículo, por ejemplo, y el artículo en su conjunto. Además, también modelarían las relaciones entre muchos artículos diferentes en Internet.
Los investigadores también deben definir qué constituye una respuesta de calidad. Esto en sí mismo no es una tarea fácil. Pero, para empezar, los autores sugieren que las respuestas de alta calidad deben ser autorizadas, transparentes, imparciales, accesibles y contener perspectivas diversas.
Incluso los algoritmos más avanzados de la actualidad no se acercan a este listón. Y no sería prudente implementar modelos de lenguaje natural en esta escala hasta que se resuelvan. Pero si se resuelve, y ya se está trabajando para abordar algunos de estos desafíos, los motores de búsqueda no serían las únicas aplicaciones que se beneficiarían.
‘Gris temprano, caliente’
Es una visión tentadora. Revisar páginas web en busca de respuestas mientras se trata de determinar qué es confiable y qué no lo es puede ser agotador.
Sin duda, muchos de nosotros no hacemos el trabajo tan bien como podríamos o deberíamos.
Pero también vale la pena especular sobre cómo un acceso a Internet como este cambiaría la forma en que las personas contribuyen a él.
Si principalmente consumimos información leyendo respuestas en prosa sintetizadas por algoritmos, en lugar de abrir y leer las páginas individuales por sí mismos, ¿los creadores publicarían tanto trabajo? ¿Y cómo compensarían Google y otros fabricantes de motores de búsqueda a los creadores que, en esencia, están creando la información que entrena los algoritmos?
Todavía habría mucha gente leyendo las noticias y, en esos casos, los algoritmos de búsqueda tendrían que ofrecer listas de historias. Pero me pregunto si podría ocurrir un cambio sutil en el que los creadores más pequeños agreguen menos y, al hacerlo, la web se vuelva menos rica en información , debilitando los mismos algoritmos que dependen de esa información.
No hay forma de saberlo. A menudo, la especulación tiene sus raíces en los problemas de hoy y resulta inocente en retrospectiva. Mientras tanto, el trabajo continuará sin duda alguna.
Quizás resolveremos estos desafíos, y más a medida que surjan, y en el proceso lleguemos a esa computadora de Star Trek que todo lo sabe y que habla agradablemente que hemos imaginado durante mucho tiempo.