por Frank Palermo

La historia de la IA merece un vistazo, porque nos está preparando para un futuro de innovación gracias a la llegada transformadora de la IA generativa.

Contenido

La esencia

  • Perspectiva historica. La historia de la IA generativa abarca más de siete décadas y culmina en aplicaciones innovadoras que impactan en diversas industrias.
  • Impacto económico. La IA generativa podría potencialmente agregar hasta 4,4 billones de dólares a la economía global.
  • Transformación del negocio. Los casos de uso emergentes incluyen operaciones de clientes, marketing, ventas e ingeniería de software, y ofrecen oportunidades para mejorar los procesos y la productividad.

En esta serie exploraremos cómo las más de siete décadas de historia de la IA han allanado sistemáticamente un camino para que la actual ola de aplicaciones de IA generativa se convierta en realidad y cómo esto está creando ahora un punto de inflexión para la IA que puede ser tan transformador como el lanzamiento de Internet.

El impacto económico potencial de la IA generativa es enorme. Una investigación reciente de McKinsey ha estimado que la IA generativa podría sumar 4,4 billones de dólares a la economía global.

La IA generativa tiene el potencial de cambiar la forma en que todos trabajamos. No reemplazando a los trabajadores, sino más bien aumentando las capacidades de los trabajadores ayudando en la investigación, automatizando tareas mundanas, creando contenido fundamental, validando hipótesis, agilizando procesos y muchas otras áreas.

Si bien la IA generativa tiene el potencial de generar impacto en una amplia variedad de funciones comerciales, los casos de uso de mayor impacto que están surgiendo incluyen operaciones de clientes , marketing y ventas e ingeniería de software. Estas áreas representan enormes oportunidades para mejorar los procesos y la productividad.

Sin embargo, la era de la IA generativa aún está en sus inicios. Si bien la tecnología seguirá evolucionando a un ritmo rápido, todavía queda mucho por resolver en torno a la gobernanza de la IA, el impacto en la fuerza laboral global, la ética de la IA, la protección de la propiedad intelectual y muchos otros temas importantes.

Profundicemos en la serie y echemos un vistazo a cómo la historia de la IA ha allanado el futuro del espacio de la IA generativa y lo que eso significa.


Intro: Los CMO revelan cómo está cambiando el papel del CMO


Parte I: El pasado crea el futuro

Para comprender el potencial y la dirección futura de la IA, es fundamental comprender el pasado. La primera parte de la serie se centra en los orígenes de la IA y las numerosas eras de evolución, tanto positivas como negativas, que han culminado en esta nueva era de la IA generativa.

La IA estaba destinada a vincular al hombre y la máquina

La Inteligencia Artificial (IA) tiene una larga y rica historia de más de 70 años. Durante este tiempo ha pasado por muchos altibajos, vacilando entre apoderarse de la raza humana y grandes fracasos y reveses visibles.

Las plataformas de IA generativa como ChatGPT y otras plataformas de modelos de lenguajes grandes (LLM) han vuelto a poner a la IA en primer plano. Irónicamente, muchas personas creen que estas capacidades aparecieron de la noche a la mañana y no comprenden el complejo linaje, la profundidad de la investigación y las innovaciones que se produjeron para permitir que estas plataformas alcanzaran la mayoría de edad.

La IA como concepto ha existido desde la antigüedad, donde los inventores crearon “automatizaciones”, que eran máquinas mecánicas, como servidores artificiales y sistemas de vigilancia, que podían moverse independientemente de la intervención humana.

Un personaje de la mitología griega, una silueta de Zeus usando una computadora portátil moderna sobre un fondo naranja al estilo de una pintura de ánfora antigua en una pieza sobre la historia de la inteligencia artificial.
La inteligencia artificial (IA) tiene una larga historia.

El término “inteligencia artificial” fue acuñado por primera vez por John McCarthy , un científico cognitivo de Princeton y CalTech a quien se le atribuye ser uno de los fundadores de la disciplina. La IA se estableció como disciplina académica en 1956.

La IA moderna no surgió realmente hasta mediados del siglo XX, cuando pioneros como Alan Turing, que trabajó en el Laboratorio Nacional de Física (NPL, por sus siglas en inglés) para crear el Motor de Computación  Automática  (ACE, por sus siglas en inglés), que fue la primera especificación completa de un programa electrónico almacenado que condujo a la primera computadora. Su trabajo en inteligencia artificial condujo al desarrollo de la Prueba de Turing , que se convirtió en el estándar para acceder a la capacidad de una máquina para exhibir un comportamiento inteligente equivalente al de un humano.

La década de 1970 fue una época de rápida investigación en IA en varias instituciones como el MIT, Stanford, UC Berkley, Carnegie Mellon y otras, financiadas principalmente por la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA). Muchos laboratorios industriales nacieron durante este tiempo en corporaciones como RAND , Bolt Beranek y Newman (BBN), SRI International y otras.

El “ invierno de la IA ” llegó más adelante en la década, cuando los investigadores comenzaron a encontrarse con limitaciones en las capacidades de computación y almacenamiento. Esto resultó en una reducción de la financiación y del interés de los consumidores que duró hasta principios de los años noventa. Muchos programas de sistemas expertos, como el Proyecto informático de quinta generación (FGCP), el Configurador experto (XCON) y otros, fueron cancelados.

A finales de la década de 1990 se produjo un resurgimiento del interés por la IA, que culminó con la muy publicitada derrota del actual campeón mundial de ajedrez y gran maestro Garry Kasparov  a manos del superordenador de ajedrez de IBM, Deep Blue , en 1997.

Más de una década después, ocurrió un evento histórico cuando IBM Watson compitió en el concurso de Jeopardy contra sus dos mayores campeones de todos los tiempos, Ken Jennings y Brad Rutter, y ganó.

Más recientemente, en 2017, AlphaGo de Google derrotó a Ke Jie en lo que se ha llamado el juego de mesa más complicado de la humanidad, Go. Esto impulsó la aplicación de la tecnología de inteligencia artificial al demostrar otra forma en que los sistemas informáticos expertos pueden funcionar mejor que los humanos en tareas altamente complejas.

Durante las últimas ocho décadas, el poder y la sofisticación de las plataformas de IA han aumentado. La limitación ha estado en la potencia computacional necesaria para entrenar estos sistemas. Durante las primeras seis décadas, la formación en informática aumentó de acuerdo con la Ley de Moore , duplicándose aproximadamente cada 20 meses. Sin embargo, desde 2010, esta cifra se ha duplicado cada seis meses, lo que es un gran impulsor de la aceleración de los sistemas de IA.

Hoy en día, la IA prevalece en muchas de las aplicaciones que utilizamos y en las que confiamos en nuestra vida cotidiana. Por ejemplo, todas las plataformas sociales utilizadas por miles de millones de personas están impulsadas por plataformas de inteligencia artificial muy ricas para recomendaciones, segmentación y participación. La IA está ayudando a las industrias a pronosticar viajes, predecir patrones climáticos y navegar rutas de conducción. El reconocimiento facial prevalece en nuestros teléfonos, fotos y videos que consumimos. Los chatbots y los asistentes de inteligencia artificial  impulsan muchas de las interacciones de servicio con nuestras marcas favoritas. Los pagos que realizamos ahora se utilizan para simplificar los procesos de pago y liquidación. De hecho, probablemente no haya nada que haga en su rutina diaria que no esté impulsado por IA.

La base de la IA generativa como plataforma de comunicación

La IA generativa y los LLM se remontan a la década de 1950, cuando se estableció por primera vez el campo de la IA. ELIZA fue uno de los primeros ejemplos de un LLM creado en 1966 en el MIT por Joseph Weizenbaum . Exploró los patrones de relación y comunicación entre humanos y máquinas y utilizó una metodología básica de coincidencia y sustitución de patrones para dar una ilusión de comprensión humana.

El caso de uso inicial fue la psicoterapia, específicamente la terapia centrada en la persona llamada Terapia Rogeriana , que se basa en la idea de que las personas están motivadas por un funcionamiento psicológico positivo.

La razón por la que este caso de uso funcionó tan bien es que la ilusión de inteligencia funciona mejor en una conversación limitada a hablar sobre uno mismo y su vida. Busca palabras clave en la declaración de un usuario y luego las refleja en forma de una frase o pregunta simple o mensajes genéricos como “cuéntame más”.

La IA generativa tuvo un gran avance en 2014 cuando Ian Goodfellow y otros investigadores introdujeron las redes generativas adversarias (GAN) en un artículo. Las GAN son una nueva arquitectura de aprendizaje automático que crea dos redes neuronales que se enfrentan (de ahí el término “adversario”) en un juego de suma cero.

Las GAN constan de dos partes principales, un generador y un discriminador. La función del generador es crear nuevas instancias de datos que se parezcan a los datos de entrenamiento. El discriminador intenta distinguir entre las instancias de datos reales y los datos sintéticos creados por el generador. El generador y el discriminador se entrenan simultáneamente pero de manera adversativa jugando al gato y al ratón. Este proceso iterativo continúa hasta que el generador crea datos que no se pueden distinguir de los datos originales y el discriminador no puede distinguir entre los dos. Este momento se llama convergencia y representa un estado de equilibrio en el que tanto el generador como el discriminador han aprendido.

Las GAN desempeñan un papel fundamental en el proceso de aprendizaje generativo y, si bien es posible que no impulsen directamente los LLM como ChatGPT, desempeñan un papel en la mejora de la generación de datos de capacitación, el aumento de datos, el refinamiento del diálogo y la mejora del flujo conversacional.

Esta nueva era de IA generativa es realmente la primera capa de interfaz de lenguaje exitosa que expone un poderoso conjunto de nuevas herramientas y API. El poder de esto está estimulando mucha reflexión sobre formas de repensar los modelos de negocios, los modelos de interacción y cambiar la productividad del trabajo y la economía general de los negocios. Esto está creando un cambio radical en el rendimiento de la IA y su potencial para impulsar el valor empresarial.

La evolución de los chatbots culmina en las aplicaciones modernas de inteligencia artificial

Ha habido una larga historia de intentos de brindar un fácil acceso a la IA a los consumidores. Los chatbots han existido desde los años 60, pero se les llamaba más acertadamente programas de computadora y en realidad no eran accesibles para la población en general. Casi cuatro décadas antes de que llegara la actual ola de chatbots, existía un programa informático llamado Racter que podía generar prosa en inglés. Fue creado por Mindscape y generó el famoso texto del libro publicado “La barba del policía está medio construida”.

Y luego estaba Jabberwacky , cuyo objetivo era “simular la conversación humana natural de una manera interesante, entretenida y divertida”. Fue creado por Rollo Carpenter en 1988 y utilizó una técnica de inteligencia artificial llamada coincidencia de patrones contextuales. Se basa en los principios de la retroalimentación y aprende del diálogo activo. No es finito ni se basa en reglas como los chatbots tradicionales, por lo que se le pueden enseñar jergas, juegos, chistes y muchos otros rasgos lingüísticos no tradicionales.

En 1995, Richard Wallace creó ALICE (Entidad informática lingüística artificial de Internet). Fue la primera interfaz interactiva real para entablar una conversación reaccionando a la intervención humana. Ganó numerosos premios por responder de forma razonablemente natural a la interacción humana.

A partir de ahí, tuvimos la primera ola de chatbots de voz como Siri, Alexa, Cortana y Google Now a partir de 2010. Todos estos eran asistentes personales inteligentes que usaban una interfaz de usuario en lenguaje natural que realmente allanó el camino para todos los chatbots de IA posteriores.

A pesar de esta evolución, muchos de los asistentes de voz continuaron frustrando a los usuarios ya que la precisión y utilidad no siempre estuvieron ahí. Eran capaces de comprender órdenes básicas y responder a preguntas sencillas, pero carecían de grandes capacidades de comprensión del lenguaje. Por lo general, estos también estaban bloqueados en una plataforma de hardware particular y no eran fácilmente accesibles desde todos los dispositivos.

La historia de los chatbots públicos no ha sido toda positiva. En 2016, Microsoft lanzó su primer chatbot de IA  llamado Tay (acrónimo de Thinking About You). Tay comenzó de manera bastante inocente respondiendo a los tweets de varios usuarios, pero rápidamente se descarriló cuando comenzó a publicar tweets ofensivos e incendiarios, lo que provocó que Microsoft lo cerrara después de solo 16 horas después del lanzamiento. Si bien se intentaron lanzamientos posteriores, Tay nunca volvió a ver la luz, pero influyó en las futuras prácticas de inteligencia artificial de Microsoft.

ChatGPT cambió el juego AI Chatbot

La evolución de los LLM ciertamente ha ampliado el vocabulario, el diálogo y la sofisticación general de los chatbots. Si bien desde hace varios años existen LLM sofisticados, todavía no existía una aplicación conveniente para que los usuarios interactuaran con una plataforma de inteligencia artificial.

Todo esto cambió el 30 de noviembre de 2022, cuando OpenAI, un laboratorio de investigación de inteligencia artificial con sede en Estados Unidos, lanzó ChatGPT . ChatGPT se reunió en una nueva generación de aplicaciones de inteligencia artificial que brindan interfaces conversacionales para ayudar en una amplia variedad de tareas como redacción de ensayos, creación de código, resumen de contenido y muchas otras.

Rápidamente se convirtió en la aplicación de más rápido crecimiento en el mundo y se convirtió en un catalizador de una carrera global por la IA.

Las últimas décadas y los avances en la investigación han ayudado a que la IA pase de ser una idea prometedora a una capacidad esencial en la vida diaria de las personas. Esta inercia seguirá impulsando la tecnología para que tenga un impacto aún mayor en el futuro.

A continuación en esta serie: exploraremos los fundamentos de la IA generativa.

Fuente Parte I: https://www.cmswire.com/digital-experience/ais-long-history-sparks-a-new-generation-of-applications/


Parte II: Historia de la IA generativa – Comprensión de la mecánica de los modelos de lenguaje

por Frank Palermo

La esencia

  • Contexto histórico. La historia de la IA generativa destaca la evolución desde grandes modelos de lenguaje hasta modelos fundamentales.
  • Matices técnicos. La IA generativa, los LLM y los modelos fundamentales tienen funciones y alcances distintos, arraigados en redes neuronales.
  • Panorama de la IA. Los rápidos avances en LLM como GPT-4 y la competencia de los gigantes tecnológicos globales están dando forma al futuro de la IA.

En esta segunda parte de nuestra serie sobre la historia de la IA generativa, veremos más allá del capó para comprender los fundamentos de la IA generativa y cómo estos grandes modelos de lenguaje (LLM) hacen su magia. También exploraremos el panorama actual de las plataformas de chat de IA y comprenderemos hacia dónde se dirigen.

Dentro de la serie de inteligencia artificial de CMSWire

Historia de la IA generativa: comprensión de la mecánica de los modelos de lenguaje

Los términos IA generativa, modelos de lenguaje grande (LLM) y modelos básicos ahora se usan en todas partes y, a menudo, se usan indistintamente a pesar de que significan cosas diferentes.

La IA generativa es un subsegmento de la disciplina general más amplia de la IA, específicamente el aprendizaje profundo, y se distingue por la capacidad de producir contenido nuevo, chats, datos sintéticos o incluso deepfakes. Por lo general, comienza con un mensaje de usuario y puede iterarse para explorar varias respuestas de contenido. Por lo tanto, la IA generativa normalmente se refiere a sistemas de IA cuya función principal es “generar” contenido. Estos pueden abarcar una variedad de sistemas de IA, como generadores de imágenes ( Midjourney , DALL-E o Stable Diffusion ), modelos de lenguaje grandes (GPT-4, PaLM) o herramientas de generación de código (CoPilot).

Los modelos de lenguaje son una clase de modelos probabilísticos de propósito general diseñados explícitamente para identificar y aprender patrones estadísticos en lenguaje natural. Por lo general, se basan en redes neuronales. Los modelos de lenguaje grande (LLM) son modelos de lenguaje específicos que consisten en redes neuronales que han sido entrenadas en grandes cantidades de texto. Los LLM se diferencian del procesamiento del lenguaje natural (PLN) en que los LLM consideran secuencias de texto más grandes para generar un mejor contexto y, en última instancia, respuestas mejores y más relevantes. Si bien no existe una definición específica, un modelo de lenguaje “grande” generalmente se refiere a una red neuronal con decenas de millones a miles de millones de parámetros. 

Los modelos fundamentales son técnicamente el superconjunto de LLM, que se centran en predicciones lingüísticas. Los modelos fundamentales se popularizaron en la Inteligencia Artificial Centrada en el Humano (HAI) de la Universidad de Stanford como soluciones de propósito más general que podían adaptarse a una amplia gama de soluciones. Un modelo de base se entrena con datos amplios mediante autosupervisión que se puede adaptar a una amplia gama de tareas posteriores (de ahí el concepto de “base”).

Los LLM constan de varios componentes importantes. La tokenización es el proceso de convertir texto en tokens que el modelo pueda entender. Luego, la incrustación convierte estos tokens en representaciones vectoriales que el modelo puede procesar. Los mecanismos de atención permiten al modelo sopesar la importancia de la frase en un contexto determinado. La capacitación previa es el proceso de capacitación del LLM en un gran conjunto de datos, generalmente sin supervisión o autosupervisado. El aprendizaje por transferencia es la técnica utilizada para ajustar el modelo para lograr el mayor rendimiento en tareas específicas.

Es importante tener en cuenta que los LLM no son “máquinas de datos” que responden preguntas directamente. La premisa básica de un modelo de lenguaje es su capacidad para predecir la siguiente palabra o subpalabra (que se denominan tokens) en función del texto que ha observado hasta ahora en los conjuntos de datos de aprendizaje. Normalmente, es el token con mayor probabilidad el que se utiliza como la siguiente parte de la respuesta.

También es importante reconocer que los LLM tienen un enfoque limitado y son fundamentalmente un modelo predictivo en torno al texto, el lenguaje y, más recientemente, los datos de imágenes. En esencia, es un predictor de lenguaje que le proporciona una oración o un párrafo basado en entradas específicas. A primera vista, parece un avance profundo en la IA, ya que imita la forma natural en que los humanos interactúan entre sí.

Aplicaciones como ChatGPT son básicamente un gran modelo de lenguaje desarrollado para generar texto. Está optimizado para dialogar con su usuario y aprende de demostraciones humanas, que es un método de aprendizaje llamado aprendizaje por refuerzo con retroalimentación humana (RLHF).

Entonces, si bien esto ha sido anunciado en gran medida como una nueva era en la IA, el hecho es que ha sido una evolución constante resultante de la digitalización de activos y la acumulación de datos que aumenta en órdenes de magnitud cada año. Esto ha mejorado enormemente nuestra capacidad para hacer predicciones y construir modelos predictivos. La trayectoria general del aprendizaje automático y la generación de datos y nuestra capacidad para hacer mejores predicciones continúa como lo ha hecho durante las últimas dos décadas.

Los transformadores reciben toda la atención que necesitan

La arquitectura del transformador se introdujo por primera vez en 2017 en un artículo de Google titulado ” La atención es todo lo que necesitas ” y cambió significativamente la forma en que pensamos sobre los modelos.

Un transformador es un modelo de aprendizaje profundo que se basa en la autoatención, que es una técnica de aprendizaje automático que imita la conciencia cognitiva y dedica más atención a partes importantes de los datos y captura las relaciones entre diferentes elementos de datos secuenciales, por ejemplo, las palabras en una sentencia.

El mecanismo de atención en el procesamiento del lenguaje natural es uno de los avances más valiosos en el aprendizaje profundo de la última década. El mecanismo de atención reemplazó los sistemas de traducción codificadores/decodificadores de redes neuronales recurrentes (RNN) anteriores. Anteriormente, los modelos de PNL aprovechaban el aprendizaje supervisado a partir de grandes cantidades de datos etiquetados manualmente, lo que limitaba su uso en conjuntos de datos que no estaban bien anotados. Este proceso también requería mucho tiempo y era extremadamente costoso.

Los sistemas basados ​​en la atención en el aprendizaje automático se pueden considerar en tres partes: un proceso que lee los datos sin procesar y los convierte en representaciones distribuidas (es decir, una posición de palabra y un vector de características), una lista de vectores de características para determinar la secuencia. u orden y un proceso que correlaciona el contenido del paso anterior con cada elemento actual.

La mayoría de los modelos fundamentales actuales utilizan una arquitectura de transformador. Los transformadores son computacionalmente eficientes. Los cálculos se realizan en paralelo, lo que supone una gran ventaja sobre las redes recurrentes típicas que deben funcionar de forma secuencial. El entrenamiento es más fácil con transformadores ya que la cantidad de parámetros es mucho mayor en los modelos basados ​​​​en RNN.

La arquitectura transformadora es ahora el estándar de facto para aplicaciones de aprendizaje profundo como procesamiento de lenguaje natural, visión por computadora, audio, voz y muchas más. Las redes de transformadores ofrecen la mejor precisión y tienen menos complejidad y costo computacional. Ahora es más fácil que nunca crear herramientas y modelos en muchos casos de uso.

La rápida evolución de los LLM impulsa el futuro de la IA

Durante la última década, la rápida evolución y los avances de los LLM han transformado el procesamiento del lenguaje natural, abriendo nuevas posibilidades para que las empresas mejoren la eficiencia, la productividad y la experiencia del cliente.

ELMo (Embeddings from Language Model), creado por el Instituto Allen de Inteligencia Artificial , fue uno de los primeros modelos fundacionales basados ​​en la tecnología LTSM (Long Short-Term Memory). Esto permite incrustaciones que son sensibles al contexto, lo que produce diferentes representaciones de palabras que comparten la misma ortografía pero tienen diferentes significados. Los modelos de lenguaje anteriores, como Glove, Word2Vec, etc., solo producían una incrustación basada en la ortografía de la palabra, pero no en el contexto de cómo se usaba la palabra. ELMo también fue uno de los primeros modelos de lenguaje verdaderamente “grandes” que se entrenó en un corpus de texto de más de 5.500 millones de palabras.

En 2018, los primeros LLM que llegaron a escena utilizando la arquitectura de transformador fueron el transformador generativo preentrenado (GPT) en 2018 y las representaciones de codificador bidireccional de Transformers (BERT), una familia de modelos de lenguaje introducida por investigadores de Google.

BERT es una representación de lenguaje bidireccional y  no supervisada  , previamente entrenada utilizando solo un  corpus de texto sin formato . GPT utiliza aprendizaje supervisado y aprendizaje reforzado a partir de comentarios humanos. Interpreta las indicaciones del usuario y luego genera secuencias de respuestas basadas en los datos que se tradujeron. 

Si bien tanto GPT como BERT se basan en la arquitectura del transformador, se basan en diferentes arquitecturas de codificación/decodificación. La diferencia es que los codificadores miran en ambas direcciones mientras codifican los datos, mientras que los decodificadores mirarán los tokens iniciales o los tokens posteriores mientras vectorizan/predicen el token actual.

BERT tiene 340 millones de parámetros y es un modelo únicamente con codificador. Están diseñados para producir predicciones únicas por secuencias de entrada, lo que los hace ideales para tareas de clasificación, pero no excelentes para tareas de resumen de texto. GPT es un modelo de solo decodificador que es autorregresivo, lo que significa que cada paso de la salida se introduce en la entrada correspondiente.

Si bien ambos son modelos muy versátiles, BERT se destaca en el análisis de sentimientos, el reconocimiento de entidades nombradas y la respuesta a preguntas. GPT se destaca en la creación de contenido, el resumen de texto y la traducción automática. Si bien ambos han sido entrenados en volúmenes de texto a gran escala, GPT posiblemente podría entrenarse en el conjunto de datos más grande jamás acumulado.

GPT ha experimentado una rápida evolución en los últimos cinco años. GPT-1 se introdujo por primera vez en junio de 2018 y fue la primera versión del modelo de lenguaje grande de OpenAI. GPT-1 introdujo la arquitectura transformadora y demostró el poder del aprendizaje no supervisado en tareas de comprensión del lenguaje, utilizando libros como datos de entrenamiento para predecir la siguiente palabra de una oración. El modelo era propenso a generar texto repetitivo y tenía dificultades para rastrear dependencias a largo plazo en el texto.

GPT-3 se lanzó en junio de 2020 y se entrenó en más de 500 mil millones de tokens, que son secuencias comunes de caracteres que se encuentran en el texto. Esto permite que el modelo prediga respuestas de texto de seguimiento plausibles. Los datos de capacitación provinieron de cantidades masivas de datos de libros, artículos, documentos y contenido extraído de Internet abierto. También hizo uso de The Common Crawl , que es una organización sin fines de lucro que incluye miles de millones de páginas web y es uno de los conjuntos de datos de texto más grandes disponibles.

GPT-4 se lanzó en marzo de 2023 y permitió una variedad más amplia de entradas de datos multimodales, como imágenes, documentos, capturas de pantalla e incluso fragmentos escritos a mano. GPT-4 también proporciona importantes actualizaciones de rendimiento y puede comprender indicaciones más complejas. Ha obtenido puntuaciones muy altas en pruebas académicas como los exámenes SAT, GRE y BAR y también ha generado las puntuaciones más altas en puntos de referencia de razonamiento como MMLU, AI2 Reasoning Challenge (ARC), WinoGrande, HumanEval y Drop. GPT-4 también proporciona una mejor síntesis de información, mayor coherencia y creatividad, mejores capacidades de resolución de problemas, expresión lingüística más avanzada para igualar el sentimiento de entrada y una gobernanza de IA más sólida para evitar contenido ofensivo o dañino.

GPT-5 ya está en marcha y, aunque OpenAI no ha confirmado una fecha formal, se puede esperar que mejore muchas de las capacidades actuales en áreas como una mejor comprensión del lenguaje, la comprensión de matices del lenguaje como el sarcasmo y la ironía, y la capacidad de proporcionar respuestas más humanas. Es probable que GPT-5 tenga muchos más parámetros que GPT-4, pero eso puede no ser tan importante como lo es comprender cuál es la mejor manera de gobernar y controlar cómo se utilizan estos modelos en el futuro. Las consideraciones en torno a la IA responsable tendrán que ser parte de las plataformas centrales en el futuro.

La historia de la IA generativa se pone al día: las aplicaciones asesinas de IA finalmente nos arrasan

La IA siempre ha adolecido de una falta de facilidad de uso y accesibilidad. Si bien impulsa muchas de las aplicaciones que usamos todos los días, no fue fácil acceder a él desde su computadora de escritorio o teléfono móvil.

Todo eso cambió cuando se lanzó ChatGPT . Se reunió en una nueva generación de aplicaciones de IA que proporcionan interfaces conversacionales para ayudar en una amplia variedad de tareas como redacción de ensayos, creación de código, resumen de contenido y muchas otras.

ChatGPT, fue inicialmente una aplicación web basada en GPT-3.5. Rápidamente generó más de 100 millones de usuarios en dos meses (hasta enero de 2023), lo que convirtió a ChatGPT en la aplicación de más rápido crecimiento de todos los tiempos. En comparación, TikTok tardó nueve meses en llegar a 100 millones de usuarios, la aplicación anterior de más rápido crecimiento.

ChatGPT utiliza tanto el procesamiento del lenguaje natural (NLP) como una red neuronal de aprendizaje profundo. NLP es la tecnología detrás de la tecnología chatbot para brindar a los usuarios una experiencia conversacional más natural. La red neuronal es un algoritmo complejo y ponderado modelado a partir del cerebro humano que le permite aprender patrones y relaciones en los datos para predecir qué texto debe seguir en una oración para formular una respuesta más humana.

Bard fue lanzado por Google el 6 de febrero de 2023, en respuesta al increíble éxito de ChatGPT. Si bien era un concepto completamente nuevo, el servicio de chat de IA que se lanzó estaba impulsado por el Modelo de Lenguaje para Aplicaciones de Diálogo (LaMDA) de Google   , que se presentó dos años antes. Se basa en la tecnología LaMDA y tiene el potencial de proporcionar información actualizada, a diferencia de ChatGPT, que se basa en datos recopilados sólo hasta 2021.

Los chatbots de IA no solo están recibiendo atención en los EE. UU., sino que ahora hay una carrera global para lanzar plataformas.

Baidu , el gigante chino de los motores de búsqueda, lanzó su chatbot de IA llamado Ernie Bot (Representación mejorada a través de la integración del conocimiento) en marzo de 2023. Los informes iniciales indicaron que Ernie no era tan sofisticado como ChatGPT y que funciona mejor en chino que en inglés. Y temas como la política resultaron complicados para Ernie, dado que China está sujeta a una estricta censura. 

Sin embargo, Baidu declaró recientemente que la última versión (Ernie 3.5) superó a ChatGPT y GPT-4 de OpenAI en varias áreas clave, como el idioma chino, el razonamiento y la generación de código.

Otro gigante tecnológico chino, Huawei, también está trabajando en su propio chatbot de IA, PanGu Chat, que lleva el nombre de su LLM con 1 billón de parámetros excepcionales y se espera que se lance en julio de 2023. El modelo PanGu es el más grande de la industria y admite la extracción bajo demanda. . Destaca en inspección inteligente y logística inteligente, con capacidades mejoradas de aprendizaje de muestras pequeñas y un rendimiento líder en la industria. Se espera que PanGu Chat solo esté disponible inicialmente para empresas y, según se informa, la compañía planea venderlo a clientes gubernamentales y empresariales.

Nuestra perspectiva histórica de la IA generativa muestra que está claro que la carrera global de la IA está ahora en pleno apogeo.

A continuación en esta serie: veremos cómo están surgiendo los principales actores en la carrera global de la IA.

Fuente Parte II: https://www.cmswire.com/digital-experience/looking-under-the-hood-at-generative-ai-history/


Parte III: Historia de la IA generativa: compitiendo por el dominio

por Frank Palermo

Sumérjase en la Parte 3 de nuestra serie completa sobre la historia de la IA generativa. ¿Quién dominará esta carrera de alto riesgo por la supremacía tecnológica?

La esencia

  • La carrera mundial por la IA se intensifica. Países de todo el mundo, encabezados por Estados Unidos y seguidos de cerca por China, están invirtiendo fuertemente en IA, y naciones como Singapur, Canadá, Corea del Sur e Israel están logrando avances significativos. 
  • El papel de los gigantes tecnológicos. Grandes empresas estadounidenses como Microsoft, Alphabet/Google y OpenAI han estado a la vanguardia de las innovaciones en IA generativa. La transformación de Microsoft bajo Satya Nadella y su asociación con OpenAI ejemplifican su liderazgo en IA. Mientras tanto, los avances de Google con los modelos LaMDA y PaLM muestran su compromiso de seguir siendo competitivo en el panorama de la IA.
  • Surgimiento y evolución de las startups de IA. El ecosistema de startups de IA está en auge, con empresas como Frame AI, Jasper, Tome y Galileo AI introduciendo soluciones innovadoras basadas en IA. Estas nuevas empresas están remodelando industrias, desde los comentarios de los clientes hasta la creación de contenido, lo que indica un futuro vibrante para las aplicaciones de IA generativa.

En esta tercera parte de nuestra serie de cuatro partes sobre la historia de la IA generativa, veremos cómo están surgiendo los principales actores en la carrera global de la IA. Si bien Estados Unidos domina actualmente, hemos visto surgir rápidamente nuevos líderes. China y otras naciones están invirtiendo fuertemente a medida que se dan cuenta de que hay mucho en juego y las recompensas son muy altas para el liderazgo en IA. Estamos comenzando un nuevo tipo de guerra fría.

Dentro de la serie de historia de la IA generativa de CMSWire

Historia de la IA generativa: países de todo el mundo han estado compitiendo por el dominio de la IA durante años

A pesar del reciente aumento de las plataformas de IA generativa , la carrera mundial de la IA lleva muchos años. Países de todo el mundo están invirtiendo enormes cantidades en IA y compitiendo por posiciones de liderazgo global.

Dominio estadounidense

Estados Unidos sigue manteniendo una posición dominante en IA, seguido de cerca por China. Sin embargo, si echas un vistazo a la historia de la IA generativa, el resto del campo ha sido bastante volátil en los últimos años. Por ejemplo, el Reino Unido pasó del tercer lugar en 2020 al cuarto lugar en 2021. Fue desplazado por Singapur, que experimentó un crecimiento significativo en los últimos años, pasando del décimo al sexto lugar en 2021. Otros países como Canadá, Corea del Sur e Israel. , Alemania, Suiza y Finlandia también están dando pasos significativos en la tecnología de IA y actualmente completan el top 10 de países.  

No es sorprendente que las principales empresas a lo largo de la historia de la IA generativa (incluidas Microsoft, Alphabet/Google, OpenAI, Nvidia, Adobe, Amazon, Facebook/Meta, Tesla e IBM) se concentren en Estados Unidos. Estos grandes gigantes tecnológicos seguirán liderando la innovación con importantes inversiones en I+D en IA. Es probable que veamos ciclos en los que cada uno de estos jugadores supere el dominio de los demás en la IA generativa.

China le sigue de cerca

China tiene su propio conjunto de gigantes tecnológicos en el espacio de la IA. Baidu , el motor de búsqueda más grande de China, ha entrado en la carrera de la IA con su equivalente ChatGPT, Ernie Bot . Alibaba se encuentra en la etapa de prueba interna para desarrollar su propio chatbot estilo ChatGPT.

JD, una empresa de comercio electrónico, está lanzando ChatJD. ByteDance , la empresa matriz de TikTok, ha iniciado la investigación y el desarrollo de herramientas de inteligencia artificial generativa a través de su laboratorio de inteligencia artificial. El proveedor de telecomunicaciones Huawei ha patentado recientemente una tecnología similar a ChatGPT , que analizaría bibliotecas de datos existentes para generar respuestas a las preguntas de los usuarios.

La velocidad a la que continúe el auge de la IA generativa en China dependerá en gran medida de la regulación gubernamental de la tecnología de IA. Los informes iniciales dicen que las regulaciones provisionales que entrarán en vigor en agosto eran mucho menos onerosas que las medidas descritas en el borrador de abril. Esto podría ser una señal de que China cree que ganar la carrera global de la IA es fundamental para su economía y su posicionamiento global.

Los productos de Microsoft tienen una larga historia con la IA generativa. Imagen: HJBC en Adobe Stock Fotos

Una transformación bajo Satya Nadella 

En 2014, Satya Nadella tomó el mando como director ejecutivo (apenas el tercer director ejecutivo en los 40 años de historia de la empresa) para iniciar una de las mayores transformaciones de la industria tecnológica. Rápidamente reorientó a la empresa para pasar a la ofensiva en nuevas áreas emergentes de tecnología, como la computación en la nube y la inteligencia artificial, y empoderó a cada persona para explorar nuevas oportunidades. Esto marcó el rumbo para hacer historia en la IA generativa.

Creó una atmósfera de startups y patrocinó algunos de los hackathons privados más grandes del mundo . Esto resultó en el renacimiento de Microsoft y el lanzamiento de plataformas nuevas e innovadoras como Azure, que rápidamente se convertirían en la base de la estrategia de productos de la empresa en el futuro.

Bill Gates y su ambición en materia de IA

También es fácil olvidar otro capítulo de la historia de la IA generativa: Bill Gates creó Microsoft Research hace 25 años con la ambición de crear computación general basada en IA, es decir, computadoras que pudieran interactuar con humanos con la capacidad de ver, oír y hablar. El equipo actual de más de 1.000 expertos altamente condecorados en informática, física, ingeniería y matemáticas continúa brindando una importante capacidad de innovación, especialmente en torno a la IA.

Las adquisiciones y asociaciones inteligentes a lo largo de la historia de la IA generativa han sido fundamentales para la estrategia de transformación de Microsoft. En lugar de adquisiciones heredadas anteriores, como la división de teléfonos inteligentes de Nokia, Microsoft se centró en pioneros técnicos como la plataforma de redes sociales en el lugar de trabajo LinkedIn , la plataforma de desarrollo GitHub y el monstruoso acuerdo de videojuegos con Activision Blizzard.

Microsoft capitalizó rápidamente estas adquisiciones. La herramienta Copilot de Github , que utiliza inteligencia artificial para sugerir fragmentos de código a los desarrolladores, se lanzó en un mercado abierto en octubre de 2021 y rápidamente atrajo a más de 10.000 empresas. 

Microsoft y OpenAI

Microsoft también estableció una asociación plurianual a largo plazo con OpenAI , que incluyó inversiones multimillonarias para acelerar los avances en IA . Esto crea una fuerza poderosa, con Microsoft y OpenAI trabajando en el espacio de la inteligencia artificial para innovar rápidamente y llevar el producto al mercado.

Google ha estado a largo plazo en lo que respecta a la historia de la IA generativa. Imagen: Picturellarious en Adobe Stock Fotos

Google y DeepMind

Al combinar la experiencia de Google Brain y DeepMind, el objetivo de Google era optimizar sus esfuerzos de investigación de IA y evitar la duplicación de trabajo. En 2015, RankBrain se utilizaba en la Búsqueda de Google para proporcionar resultados de búsqueda más relevantes para los usuarios y evitar el juego de las clasificaciones de búsqueda. En 2017, se formó la división de IA de Google , que fue pionera en muchos programas como Google Brain, Tensor Flow, AlphaGo, Transformers y, más recientemente, LaMDA (Language Model for Dialogue Applications).

Sin embargo, DeepMind se había estado ejecutando de forma independiente y normalmente trabajaba en conceptos de IA que no llegaron a formar parte de los productos principales de Alphabet. Todo eso cambió en abril de 2023, cuando Sundar Pichai, director ejecutivo de Alphabet, anunció que los grupos se fusionarían formalmente . Según Pichai, “combinar todo este talento en un equipo enfocado, respaldado por los recursos computacionales de Google, acelerará significativamente nuestro progreso en IA”. Lo más probable es que esto se debiera a que Google parecía estar en segundo plano cuando se lanzó GPT por primera vez, a pesar de trabajar silenciosamente en una tecnología similar.

LaMDA de Google

LaMDA, anunciado en 2021, supuso un gran avance como LLM conversacional con la capacidad de potenciar aplicaciones de diálogo para generar conversaciones similares a las humanas. LaMDA recibió capacitación en diálogo conversacional, lo que le permitió captar varios matices que distinguen la conversación abierta de otras formas de lenguaje. Esto le permite determinar si la respuesta a un contexto conversacional determinado tiene sentido. LaMDA fue uno de los primeros servicios de chat de IA que se presentó.

PaLM de Google

Un modelo aún más sofisticado llamado PaLM (Pathways Language Model) se anunció por primera vez en abril de 2022 y permaneció privado hasta marzo de 2023. PaLM es una familia de modelos de lenguaje desarrollados por Google que están diseñados para tareas de generación de lenguaje a gran escala.

El nombre proviene del concepto de que se pueden desarrollar nuevas “vías” para permitir que un único modelo realice potencialmente millones de tareas. El modelo utiliza una técnica conocida como “aprendizaje de pocas tomas” que le permite aprender de un número limitado de ejemplos (o tomas) etiquetados para ayudarlo a generalizar rápidamente nuevas tareas con un etiquetado de datos mínimo. Los futuros modelos de IA dependerán de múltiples sentidos (es decir, mecanismos de entrada) para digerir e interpretar la información, imitando los sentidos y el comportamiento humanos. Anteriormente, muchos sistemas de aprendizaje automático se especializaban excesivamente en tareas individuales, cuando la verdadera oportunidad es sobresalir en muchas tareas simultáneamente.

Al igual que GPT, PaLM está diseñado para tareas de generación de lenguaje a gran escala, como traducción automática o generación de contenido. PaLM se entrenó en una gran cantidad de texto (más de 780 tokens) que incluía fuentes como artículos, libros, páginas web, contenido de Wikipedia, conversaciones sociales y repositorios de código abierto. Se informó que PaLM era más de 1000 veces más poderoso que su predecesor BERT.

PaLM 2 de Google

Luego, en el Google I/O de este año el 10 de mayo, Google presentó el modelo de lenguaje de próxima generación llamado PaLM 2 con capacidades mejoradas de codificación, razonamiento y multilingüe. PaLM 2 fue entrenado en más de 100 lenguajes diferentes y una gran cantidad de bases de código fuente abiertas. El material de capacitación también incluyó una gran cantidad de artículos científicos y expresiones matemáticas para mejorar las capacidades de lógica y razonamiento. PaLM 2 puede comprender modismos, poemas, textos matizados e incluso acertijos en otros idiomas.

PaLM 2 permitió a Google ponerse al día en la carrera de la IA. PaLM 2 es un modelo más nuevo que GPT-4. Sin embargo, se dice que el modelo GPT-4 está entrenado en 1 billón de parámetros , lo que lo hace al menos 10 veces más grande que PaLM 2. Sin embargo, el tamaño más pequeño de PaLM 2 es una ventaja para ciertas aplicaciones que no tienen tanta potencia de procesamiento integrada.

La carrera de la IA está ahora en pleno apogeo y podemos esperar que la velocidad a la que evolucionan estos LLM continúe aumentando. Google no muestra signos de desaceleración y ya tiene su próximo gran modelo en desarrollo llamado Gemini. Se basará en los algoritmos de aprendizaje por refuerzo de AlphaGo y los combinará con las increíbles capacidades lingüísticas de los modelos grandes.

Otra pieza de la historia de la IA generativa: ¿qué pasó con IBM Watson?

Durante más de una década de historia de la IA generativa, Watson de IBM fue el único juego de IA que existía. ¡Desde exhibiciones públicas de alto perfil de vencer al ajedrez y Jeopardy! Para los campeones, parecía que el futuro de la IA estaba en manos de IBM. Para muchas personas, Watson se convirtió en sinónimo de IA. Se comercializó agresivamente y se presentó habitualmente en programas de noticias de alto perfil como ” 60 Minutos “.

Los nombres de IBM y Watson están en letras blancas sobre un tablero azul pizarra en la fachada de piedra gris del edificio de la sede de IBM en una historia sobre la historia de la IA generativa.
Después de una historia difícil en materia de IA generativa, IBM está redefiniendo la misión de Watson. Imagen: MichaelVi en Adobe Stock Photo

¡Un peligro! Éxito: un fracaso en la atención sanitaria

Después del éxito público de vencer a Jeopardy! Después del campeón  Ken Jennings  en 2011, IBM centró su atención en Watson en la aplicación de la IA a la atención sanitaria. La atención médica es la industria más grande del país y el gasto aumenta en todo el mundo, por lo que parecía plausible en ese momento. Se suponía que Watson revolucionaría la forma en que se brindaba la atención médica y al mismo tiempo ofrecería la posibilidad de vivir vidas más largas y saludables. Sin embargo, durante la siguiente década una serie de pasos en falso descarrilarían esa misión.

El problema fue que Watson se propuso abordar algunos de los temas más ambiciosos, como encontrar curas y recomendar cuidados para el cáncer. Esta resultó ser una tarea monumental ya que la tecnología aún no estaba desarrollada para manejar este nivel de complejidad de propósito general. En retrospectiva, habría sido mucho más práctico centrarse en temas específicos como reacciones adversas a medicamentos, etc.

Watson había sido creado a medida para fines específicos, como responder preguntas en un concurso. Esta era una tecnología muy poderosa pero limitada. Mucha gente pensaba que Watson era un contestador automático ya preparado. Resulta que la complejidad y las lagunas en los datos médicos y genéticos proporcionados hicieron que a los tecnólogos de IBM les resultara muy difícil programar Watson. Los médicos se frustraron y lucharon con la tecnología y validaron los resultados en lugar de atender a los pacientes. Después de cuatro años y de gastar 62 millones de dólares, el Asesor Experto en Oncología  fue abandonado en 2016 por considerarlo un costoso fracaso. 

A pesar de esto, IBM continuó invirtiendo y creó una unidad de negocios separada llamada Watson Health en 2015. Gastó más de 4 mil millones de dólares para adquirir empresas con datos médicos, registros de facturación e imágenes de diagnóstico de cientos de millones de pacientes. Lo que comenzó como una misión revolucionaria, terminó con la venta de las piezas a la firma de capital privado Francisco Partners en 2021.

Redefiniendo la misión de Watson

IBM ahora ha redefinido su misión Watson para proporcionar un conjunto habilitante de herramientas y plataformas para ayudar a las organizaciones a incorporar IA en sus negocios. IBM anunció Watson X en mayo de 2023, que incluye capacidades para código generado por IA, un conjunto de herramientas de gobernanza de IA y una biblioteca de miles de modelos de IA a gran escala, capacitados en lenguaje, datos geoespaciales, eventos de TI y código .

Watson también tiene un asistente similar a ChatGPT llamado Watson Assistant que se basa en el aprendizaje automático y el procesamiento del lenguaje natural y también aprovecha grandes modelos de lenguaje. Sin embargo, Watson es mucho más que una simple interfaz de chatbot de IA impulsada por un LLM, ya que fue creado para determinar la intención a través de la IA conversacional. Watson incorpora conjuntos de datos de muchos pares de entrada y salida, que utiliza para comprender cómo es una buena respuesta y cuál es la intención del usuario. Según IBM, Watson ahora cuenta con un algoritmo de detección de intenciones con una precisión del 79% .

IBM también se está dando cuenta del valor de las asociaciones abiertas al asociarse con HuggingFace , una startup de inteligencia artificial de alto perfil y una plataforma de código abierto que alcanzó una valoración de 2 mil millones de dólares el año pasado. IBM decidió que el código abierto debería ser el núcleo de Watsonx.ai. que se basa en  RedHat OpenShift y está disponible en la nube y en las instalaciones. Muchas de las bibliotecas de código abierto de HuggingFace ahora estarán disponibles a través de Watson.ai.

Entonces, si bien IBM Watson ha tenido un viaje precario a través del campo minado de la IA, está viva nuevamente y preparada para participar en esta próxima ola de innovación en IA.

Haciendo historia en la IA generativa hoy: un nuevo frenesí de startups

La frontera de las startups de IA es posiblemente la más activa desde los albores de Internet. Todos los días surgen nuevas empresas y empresas existentes reposicionan sus productos en el espacio de la IA.

Así como OpenAI pasó de una relativa oscuridad a ser noticia de primera plana, hay literalmente cientos de nuevas empresas de IA que están ganando impulso. A continuación se muestran algunos ejemplos de nuevas empresas de inteligencia artificial de vanguardia que redefinen la forma en que se realiza el trabajo.

Las empresas emergentes ganan impulso

  • Frame AI está construyendo una plataforma de éxito del cliente para proporcionar mejores circuitos de retroalimentación entre productos, clientes y servicios. Se centra en identificar comportamientos y significados del habla a través de interacciones de servicios para crear puntuaciones de sentimiento impulsadas por IA en tiempo real para permitir mejores decisiones sobre el personal de productos y servicios.
  • Jasper es una plataforma de escritura basada en inteligencia artificial diseñada para ayudar a la creación de contenido para blogueros, especialistas en marketing y empresas. Jasper genera contenido original y de primer nivel adecuado para blogs, textos de marketing y descripciones de productos ingresando información básica.
  • Tome es una nueva plataforma para crear y compartir ideas. Los usuarios pueden crear y compartir documentos multimedia interactivos, como libros electrónicos, presentaciones e informes. Los usuarios pueden agregar fácilmente texto, imágenes, videos, audio y otros elementos interactivos a sus documentos.
  • Galileo AI es un copiloto para el diseño de interfaces de usuario. Crea diseños de interfaz de usuario atractivos y editables a partir de una simple descripción de texto, lo que permite a los diseñadores crear diseños más rápido que nunca.

Estos son solo algunos ejemplos de empresas que están utilizando la IA para cambiar los paradigmas actuales sobre cómo se realiza el trabajo, cómo se crea el contenido y cómo se comparten las ideas, lo que está cambiando la historia de la IA generativa. Si bien es posible que no alcancen el éxito de OpenAI, son pioneros en el cambio y sientan las bases para aplicaciones y plataformas impulsadas por IA para el futuro.

Lo siguiente en esta serie: la IA generativa todavía está en su infancia. En la parte final de nuestra serie exploraremos algunas de las cuestiones que rodean el uso de tecnologías de IA generativa y cómo se pueden abordar en el futuro.

Fuente Parte III: https://www.cmswire.com/digital-experience/generative-ai-history-jockeying-for-dominance/


Principales inversiones en experiencia del cliente en IA con grandes beneficios

por David Weldon

Cómo las inversiones en experiencia del cliente en IA están transformando la personalización, el soporte y los conocimientos en las estrategias de participación del cliente.

La esencia

  • Avance de la IA. La personalización de la experiencia del cliente mediante IA se está convirtiendo en un diferenciador clave para la innovación y el deleite del cliente.
  • Impulso de conocimiento. La IA agiliza el proceso para descubrir conocimientos, mejorando la personalización y retención de los clientes.
  • Poder de apoyo. Las inversiones en IA a corto plazo en soporte, resolución de problemas y depuración ofrecen importantes oportunidades en CX.

Una clave para el éxito de cualquier estrategia de experiencia y participación del cliente es la personalización, y la inteligencia artificial está permitiendo enormes avances en esta área para muchas organizaciones. Tanto es así que la personalización de la experiencia del cliente mediante IA podría convertirse rápidamente en el diferenciador competitivo para las organizaciones que buscan impulsar la innovación y deleitar a los clientes.

“La personalización es la piedra angular de cualquier estrategia de CX, especialmente a medida que los consumidores se vuelven más dependientes de una experiencia verdaderamente personalizada”, señaló Eric Carrasquilla, vicepresidente ejecutivo y director general de experiencia del cliente en CSG . “Con este tipo de inversión, las posibilidades son infinitas”.

El beneficio inmediato de las inversiones en experiencia del cliente en IA para la participación del cliente es el conocimiento, afirmó Carrasquilla. La IA agiliza el proceso de conocimiento para descubrir todos los “rincones” que podrían pasar desapercibidos para un analista humano. Cuanto más informada pueda estar una organización sobre sus clientes, mejor podrá personalizar su próxima experiencia, satisfacerlos y retenerlos. 

Principales beneficios de la experiencia del cliente de IA a corto y largo plazo

Más allá de una mayor información, las inversiones en experiencia del cliente en IA que deberían generar los mayores beneficios en el menor tiempo para CX se reducen al soporte, la resolución de problemas y la depuración, explicó Natalie (Nat) Onions, vicepresidenta de experiencia del cliente en Customer.io . “Golpear un bloqueador en cualquier producto puede mejorar o deshacer su experiencia, y la IA está abriendo enormes oportunidades para ayudar a los usuarios a tomar las medidas preventivas adecuadas mientras trabajan y brindarles asistencia cuando tienen problemas”.

Onions dijo que siempre está buscando que CX sea proactivo en lugar de reactivo. “Así que estoy emocionado de ver cómo las inversiones en IA pueden llevarnos al punto en el que podamos usar modelos predictivos para resaltar dónde los usuarios pueden tener problemas en función del trabajo que han iniciado”, dijo Onions.

Mientras tanto, Onions dijo que la empresa está evaluando las mejores prácticas para el uso de IA interna y externamente en toda la empresa. Recientemente, Customer.io lanzó un programa interno y creó un nuevo rol responsable de investigar e implementar las mejores estrategias y prácticas de IA. Junto con este programa, también lanzó un “AI Helper Bot”, con la intención de probar esta tecnología para solucionar problemas internamente antes de implementarla para los clientes.

“Si bien adoptamos la IA, somos cautelosos y deliberados en nuestro enfoque”, dijo Onions. “Puede resultar difícil equilibrar la presión para implementar la IA públicamente con el deseo de brindar la mejor experiencia posible al cliente. Sin embargo, es importante para nosotros que seamos intencionales en cuanto a los canales que lanzamos para nuestros clientes y las formas en que protegemos su experiencia”.

Una avalancha de interés en la IA generativa

El lanzamiento público de ChatGPT en noviembre de 2022 provocó una avalancha de interés en las aplicaciones de IA conocidas como modelos de lenguaje grandes o IA generativa (GenAI). Los productos GenAI están creando un “cambio radical en la prestación de servicios al cliente y ofrecen nuevas oportunidades importantes”, según la firma de investigación Gartner. “Sin embargo, muchas de estas soluciones aún no están listas para su uso en producción. Las áreas que están experimentando cambios incluyen mejoras operativas, rendimiento de los agentes, diseño de aplicaciones, servicio autónomo y asistido, diseño y desarrollo del viaje y monitoreo de la experiencia del usuario”.

Las organizaciones que invierten en GenAI para sus estrategias de participación del cliente deben buscar retornos de la inversión claros en el corto plazo e inversiones que creen nuevas oportunidades competitivas en el largo plazo, dijo Bern Elliot, vicepresidente y analista distinguido de la firma de investigación Gartner.

Con la convicción de que no existe un momento como el presente, la IA se utiliza ahora en las diferentes plataformas de CSG que abarcan cada parte de la experiencia del cliente. Por ejemplo, CSG Encompass utiliza IA para optimizar los procesos de orquestación de redes y servicios de telecomunicaciones; CSG Forte utiliza IA para obtener información sobre los procesos de transacciones y análisis para reducir el fraude; y CSG Xponent aprovecha la IA para convertir mapas de viaje previamente estáticos en experiencias vividas tangibles, explicó Carrasquilla. 

Determinación del ROI de las inversiones en experiencia del cliente en IA para el compromiso

Al evaluar el ROI de las inversiones en experiencia del cliente en IA en términos de compromiso, la mejor métrica a la que prestar atención es la retención de clientes, dijo Carrasquilla. En pocas palabras, si estás reteniendo clientes, has creado una cultura por la que vale la pena quedarse, y los clientes leales alimentan una cultura impulsada por el cliente, enfatizó.

Customer.io utiliza una métrica diferente para determinar el ROI. 

“Nuestros costos de soporte son las principales métricas que he estado usando para promocionar y posicionar la inversión en IA”, dijo Onions. “Con nuestra dependencia actual del soporte impulsado por las personas, ya sea a través de interacciones individuales o mediante la creación de material de autoservicio, escalar y mejorar la eficiencia operativa es algo para lo que la IA abre un enorme potencial. Normalmente confío en nuestro margen por nivel como métrica para probar nuevas iniciativas, ya que esta es la mejor manera de modelar el cambio y evaluar el potencial”.

Aún así, Onions dijo que también presta mucha atención a los comentarios y observaciones sobre la experiencia del cliente. Si bien un buen margen y una eficiencia operativa son insumos para un buen retorno de la inversión (ROI), es vital que la CX no se vea afectada como resultado, afirmó.

“Si puedes ahorrar dinero en personal mediante la implementación de IA, pero el resultado es que los clientes ya no están contentos con sus compromisos, en última instancia perderás la confianza y la felicidad con lo que impulsa tu negocio: tus clientes”, enfatizó Onions. . 

Realidades actuales e inversiones futuras en experiencia del cliente en IA

Customer.io todavía se encuentra en las primeras etapas de prueba de la IA dentro del negocio y utiliza estos resultados para considerar cómo podría aplicar los éxitos a la experiencia del cliente.

“Hasta ahora, hemos visto que nuestro robot de ayuda interno impulsado por IA ha reducido el tiempo de espera para la resolución de problemas entre nuestros equipos, lo que en última instancia tiene un impacto positivo en los clientes porque podemos ayudarlos mucho más rápido”, explicó Onions. “También estamos descubriendo que los miembros del equipo menos técnicos pueden confiar en la IA para brindar una respuesta sólida y amigable al cliente a preguntas complejas con un nuevo nivel de confianza y confiabilidad”.

El siguiente paso en el viaje de Customer.io será explorar una versión de esta tecnología orientada al cliente, probablemente integrada en el centro de ayuda en la aplicación de la empresa o en la herramienta de chat en vivo. Si bien Onions aún no conoce el cronograma para esto, dijo que su expectativa es ver una caída en la cantidad de tickets que llegan al equipo de soporte que necesitan una interacción 1-1. El uso de IA permitirá a los clientes obtener respuestas a las preguntas más comunes.

“Acelerar el lado de soporte de CX será un gran resultado para que la IA nos traiga a casa”, dijo Onions. “No puedo hablar de ningún resultado real de las inversiones en IA orientadas al cliente. Pero tengo esperanzas en el futuro y estoy contento con nuestra decisión de ampliar estos esfuerzos con base en principios”.

Lecciones aprendidas de las primeras inversiones

Una de las lecciones más importantes que Carrasquilla dice haber aprendido es que la mejor experiencia del cliente se desarrolla en múltiples canales.

Para ser una organización holística, hay que empezar por reconocer las múltiples preferencias de los consumidores, explicó Carrasquilla. Algunas personas siempre optarán por llamar al servicio de atención al cliente, mientras que los clientes más conocedores de la tecnología comenzarán con la búsqueda y ChatGPT para obtener una respuesta inicial antes de acercarse a la marca. Una experiencia de cliente integral permitirá todas estas experiencias, sin importar en qué canal se lleven a cabo, y enfatizará poner al consumidor en primer lugar.

Mientras tanto, en Customer.io, Onions dijo que la empresa ha sido intencionalmente lenta y cuidadosa al no precipitarse hacia las experiencias de los clientes con IA hasta que tenga altos niveles de confianza y competencia interna en la construcción y soporte de sistemas que giran en torno a esta tecnología.

“Si bien esto significa que no hay lecciones reflexivas que pueda compartir hoy con respecto al impacto de las inversiones en IA, confío en compartir que mi mayor aprendizaje hasta ahora es que tomarnos nuestro tiempo para alcanzar la excelencia es lo que nos permitirá eventualmente lanzar una oferta impulsada por IA que impulse inmediatamente nuestra CX, tenga un impacto rápido y nos brinde rápidamente un retorno de la inversión”, dijo Onions.

Comience con casos de uso, cree una comunidad de práctica, priorice los casos de uso según criterios significativos, desarrolle pilotos o MVP para obtener experiencia, aconsejó Elliot. 

“No empiecen con los proyectos estratégicos más difíciles”, dijo Elliot. “Comience con aquellos que ofrecen un retorno de la inversión más sencillo y claro. Primero adquiera experiencia y credibilidad”.

Fuente: https://www.cmswire.com/customer-experience/top-ai-customer-experience-investments-with-big-payoffs/

Deja una respuesta