No hay duda de que la IA generativa (GenAI) ha sido la historia tecnológica del año. Una sesión de la AI Governance Alliance del Foro Económico Mundial 2024 se refirió a ella como “La máquina de vapor de la Cuarta Revolución Industrial”. Desde su lanzamiento en noviembre de 2022, la base de usuarios de ChatGPT ha crecido a más de 1.300 millones de visitas por mes. Es un ejemplo perfecto de la velocidad vertiginosa a la que ha ido evolucionando la tecnología actual.
por Art Murray
Se podría decir que es similar al acontecimiento histórico de romper la barrera del sonido. El desempeño de GenAI en pruebas estandarizadas, medido en comparación con puntos de referencia de desempeño humano, continúa mejorando, con Chat GPT-4 alcanzando el percentil 95 en el SAT y el percentil 90 en el LSAT y los exámenes de la barra. Sin embargo, por más inteligentes que sean estos sistemas, aún pueden actuar de manera bastante tonta. Algunas afirmaciones bien conocidas y ridículas incluyen que hay 24,3 mil millones de tulipanes en el mundo y que Abraham Lincoln diseñó el modelo de automóvil Lincoln. (En realidad, fue inventado por Henry Leland, un admirador de Lincoln). Estas son sólo algunas de las muchas “alucinaciones” que GenAI produce regularmente.
Si GenAI es tan inteligente, ¿cómo puede producir tantas respuestas erróneas? La respuesta reside en parte en el hecho de que el término “generativo” significa exactamente eso: generar resultados completamente nuevos desde cero. Una analogía simple sería si tuviera que realizar un examen a libro cerrado. Lo único que tienes es una hoja de papel en blanco y el conocimiento que has acumulado en tu cabeza sobre el tema. Si no sabes la respuesta correcta, adivina. Si estás realmente desconcertado, podrías incluso inventar algo de la nada en lugar de dejar la respuesta en blanco. Esto es similar a las alucinaciones que hemos observado.
También está el persistente problema del plagio. Básicamente se trata de repetir palabra por palabra la respuesta correcta a una pregunta sin indicar de dónde viene. Ejemplos notables incluyen demandas recientes por infracción de derechos de autor presentadas por The New York Times y autores populares como John Grisham y David Baldacci por utilizar su material publicado para entrenar los grandes modelos de lenguaje (LLM) de OpenAI. ¿Qué podemos hacer, si es que podemos hacer algo, para corregir estas deficiencias? La respuesta está en una tecnología pasada por alto que existe desde hace décadas. Estoy hablando del gemelo olvidado de GenAI… la IA extractiva .
Llenando los huecos
La IA extractiva adopta un enfoque más integral y transparente de la inteligencia artificial. En el lado de la entrada, en lugar de depender de la probabilidad estadística de que una palabra preceda o siga a otra, realiza una derivación más sofisticada del significado y la intención, a menudo utilizando ontologías de referencia en capas. Esto da como resultado una enumeración más descriptiva, en lugar de predictiva, del espacio del problema.
Los mecanismos de inferencia disponibles para operar en esos espacios problemáticos son aún más numerosos (el razonamiento basado en casos y los sistemas de recomendación y crítica son sólo dos ejemplos). Dependiendo de la naturaleza del problema, el sistema elige los algoritmos de comparación más apropiados, selecciona y clasifica fragmentos específicos de conocimiento relevante y aplica reglas de agregación para elaborar una respuesta. Las alucinaciones se reemplazan con un simple “No sé” o “Por favor, proporcione más información”. Y como la IA tiene como objetivo principal apoyar la toma de decisiones, la IA extractiva ajusta sus recomendaciones en función de si el entorno de decisión se caracteriza por el riesgo o la incertidumbre.
No hay necesidad de preocuparse por el plagio. Las respuestas, que a menudo son citas exactas, son más estructuradas, consistentes y precisas, van acompañadas de rastros rastreables hasta las fuentes e incluyen una explicación de la lógica o el razonamiento que se aplicó. La IA extractiva también puede asignar intervalos de confianza y otras métricas a los resultados. A diferencia de GenAI, que se parece más a un examen a libro cerrado, la IA extractiva puede verse como una variedad de libro abierto. Ahora abordemos el elefante en la sala cuando se trata no solo de GenAI sino también del eventual surgimiento de AGI (inteligencia general artificial). Es decir, el miedo a un desplazamiento generalizado del empleo.
KM al rescate
Un hilo conductor constante en esta columna sobre las tendencias tecnológicas futuras ha sido un papel cada vez mayor, en lugar de minimizado, de los humanos. Ese papel siempre ha estado y seguirá estando centrado en KM. Las funciones humanas críticas incluyen evaluar la veracidad, dar sentido y la incorporación de la intuición, el juicio experto y la sabiduría. Por no hablar de ese potente motor económico conocido como innovación .
A pesar de lograr un comportamiento cada vez más humano, las computadoras siempre serán computacionales. Su única función es procesar ceros y unos. Sus resultados son puramente analíticos, basados en ponderaciones y puntuaciones numéricas sin comprensión, emoción, intuición o, sobre todo, ningún sentido de administración. Igualmente importante es la noción de novedad. Es cierto que un sistema de IA puede generar una nueva idea o concepto, incluso una nueva teoría. Sin embargo, aún será necesario un ser humano para determinar si una idea tiene sentido o puede considerarse ética. Y no olvide el evento ocasional del cisne negro, que rara vez aparece en los LLM.
Cualquier apariencia de inteligencia surge principalmente como un rasgo de comportamiento, como la capacidad del sistema para aproximarse mucho a la conversación humana. En ese sentido, las máquinas aprenden de la misma manera que aprenden los niños, e incluso los adultos: a través de la imitación. Repetirán lo que escuchan, aunque es posible que no comprendan completamente lo que dicen. En muchos sentidos, “el mono ve, el mono hace” se ha convertido en “al ver, al hacer”. La diferencia es que la IA tiene acceso a volúmenes masivos de datos existentes, pero a menudo con poca información sobre cómo se generan las respuestas o confianza en su veracidad.
También hay señales de que el suministro de datos podría estar alcanzando su máximo, y que cada vez quedan menos datos por “extraer”. Esto lleva a la pregunta: “¿Y luego qué?” La respuesta debería ser obvia. Más de 8 mil millones de mentes en el planeta están repletas de todo tipo de conocimiento imaginable, incluidos enfoques indígenas no explotados sobre la ciencia, las matemáticas, la salud, el aprendizaje y, quizás lo mejor de todo, diferentes formas de simplemente mirar el mundo.
Una combinación perfecta
Claramente, hay un lugar para cada uno de estos dos tipos de IA, con un papel crucial para KM en cada uno de ellos. En el lado generativo, tenemos ingeniería de sentido e ingeniería rápida para refinar no solo las consultas, sino también los modelos y algoritmos de aprendizaje automático subyacentes. En el lado extractivo, se trata de construir ese conjunto de conocimientos tan necesario sobre qué combinación de las muchas modalidades de IA disponibles funciona mejor en situaciones determinadas, y la extensa curación y gobernanza que la acompaña.
¿Quiere mantener una conversación interesante e inteligente sobre cualquier tema, a pedido, las 24 horas del día, los 7 días de la semana? GenAI está esperando. ¿Necesita una respuesta precisa y validada a una pregunta o problema con graves implicaciones económicas, legales o de otro tipo? Entonces la IA extractiva es lo que estás buscando.
Sí, GenAI es apasionante y seguirá evolucionando. Pero no nos enamoremos tanto de él como para perdernos las muchas oportunidades disponibles en el lado extractivo. Mejor aún, unamos nuestras mentes colectivas y encontremos maneras de aprovechar al máximo estos dos mundos nuevos y valientes.
Fuente: https://www.kmworld.com/Articles/ReadArticle.aspx?ArticleID=162698