OpeaAI lanzó recientemente su modelo de chatbot más reciente y potente hasta la fecha: chatGPT-4 Turbo (gpt-4–1106-preview). Es más rápido, más preciso y tiene una base de conocimiento de hasta abril de 2023. Profundicemos en algunos detalles más.
por Kumar Vishal
Presentamos GPT-4 Turbo: una actualización importante
He estado usando GPT-4 Turbo en OpenAI durante bastante tiempo y seguramente puedo decir que representa una mejora sustancial del modelo de lenguaje grande GPT-4 preexistente. Esta evolución introduce una serie de mejoras, como una ventana de contexto significativamente ampliada y acceso a conocimientos más recientes. OpenAI ha estado aumentando constantemente las capacidades de GPT-4 dentro de ChatGPT, con la integración de instrucciones personalizadas, complementos de ChatGPT, DALL-E 3 y análisis de datos avanzado. Esta última versión presenta una gran cantidad de funciones nuevas e interesantes.
GPT-4 Turbo con visión es una versión especializada de GPT-4 Turbo que incorpora capacidades de reconocimiento óptico de caracteres (OCR). En esencia, tiene la capacidad de analizar imágenes y extraer el texto que contienen. Por ejemplo, si le proporciona una imagen de un menú, puede descifrar los elementos del menú que se muestran en la imagen. De manera similar, puede procesar una imagen de una factura y extraer automáticamente el nombre del proveedor y los detalles del artículo.
La funcionalidad “con visión” vendrá como característica predeterminada en ChatGPT y estará disponible para los desarrolladores mediante la selección del modelo “gpt-4-vision” en la API de OpenAI.
Características clave de GPT-4 Turbo
GPT-4 Turbo cuenta con una variedad de mejoras en comparación con sus predecesores, elevando sus capacidades a nuevas alturas. Aquí hay algunas características destacadas:
1. Límite de conocimiento mejorado
Anteriormente, GPT-3.5 y GPT-4 tenían un límite de conocimiento establecido en septiembre de 2021, lo que los hacía incapaces de abordar eventos del mundo real más allá de esa fecha a menos que se les proporcionaran fuentes de datos externas. GPT-4 amplía este límite de conocimiento en diecinueve meses, lo que le permite acceder a información y eventos hasta abril de 2023. Esto mejora significativamente su confiabilidad como fuente de información actualizada. El director ejecutivo de OpenAI, Sam Altman, también se ha comprometido a mantener esta base de conocimientos actual, asegurándose de que siga siendo relevante.
2. Ventana de contexto de 128K
La ventana de contexto de un modelo de lenguaje grande define la duración de su memoria conversacional. Una ventana de contexto más grande permite respuestas más coherentes y precisas en conversaciones extensas o cuando se trata de documentos extensos. GPT-4 ahora ofrece una longitud de contexto máxima de 32.000 tokens, mientras que GPT-4 Turbo lleva este límite a 128.000 tokens, lo que equivale a alrededor de 240 páginas con 400 palabras por página. Esto lo alinea con el modelo YARN-MISTRAL-7b-128k de Nous Research, superando el límite de 100.000 tokens del modelo Claude 2 de Anthropic.
Vale la pena señalar que aún no se ha determinado la efectividad de una ventana de contexto más larga a lo largo de toda la conversación, ya que las investigaciones existentes indican que los modelos de contexto largo destacan principalmente en el acceso a información cerca del principio o el final de un documento. Además, se están realizando esfuerzos para lograr la aspiración de un “contexto infinito” con investigaciones en etapa inicial de Microsoft y la Universidad Xi’an Jiaotong que apuntan a escalar modelos de lenguaje a mil millones de tokens de contexto.
3. Llamada a funciones
La llamada a funciones es una característica diseñada para agilizar las interacciones con el modelo para los desarrolladores que incorporan IA generativa en sus aplicaciones. Les permite describir las funciones de su aplicación o API externas a GPT-4 Turbo. Esta característica admite la llamada de múltiples funciones dentro de un solo mensaje, eliminando la necesidad de extensos intercambios de ida y vuelta con el modelo.
Las reducciones de costos también se extienden a los modelos GPT-3.5 Turbo, que ofrecen tokens de entrada a 0,1 centavos de dólar por 1000 tokens (3 veces más baratos) y tokens de salida a 0,2 centavos de dólar por 1000 tokens (2 veces más baratos). Además, los tokens de entrada del modelo GPT-3.5 Turbo 4K ajustados son ahora cuatro veces más económicos, y el precio cae de 1,2 centavos de dólar estadounidense a 0,3 centavos de dólar estadounidense por 1000 tokens. Los tokens de producción siguen su ejemplo, volviéndose 2,7 veces más baratos, y el precio disminuye de 1,6 centavos de dólar a 0,6 centavos de dólar por cada 1.000 tokens. El precio de la formación se mantiene constante en 0,8 centavos de dólar por 1.000 tokens.
Estos ajustes de precios tienen como objetivo hacer que los modelos avanzados de IA sean una opción rentable para los desarrolladores.
4. GPT se vuelve multimodal: indicaciones de imágenes y texto a voz
OpenAI se está preparando para presentar “GPT-4 Turbo con visión”, que permitirá a los usuarios indicarle al modelo el uso de imágenes directamente en el cuadro de chat. Esta capacidad permitirá al GPT-4 Turbo generar títulos de imágenes y proporcionar descripciones del contenido visual. Además, facilitará la conversión de texto a voz, ampliando aún más su utilidad.
5. Precios más asequibles
OpenAI ha ajustado el precio de GPT-4 Turbo para hacerlo más accesible para los desarrolladores. El costo de los tokens de entrada GPT-4 Turbo a través de la API OpenAI se ha reducido a un tercio de su precio anterior, situándose ahora en 1 centavo de dólar por cada 1000 tokens (frente a 3 centavos de dólar). Los tokens de producción también han experimentado una reducción, ahora disponibles a 3 centavos de dólar por 1000 tokens, lo que reduce a la mitad el costo anterior de 6 centavos de dólar por 1000 tokens.
Cómo acceder a GPT-4 Turbo
El acceso a GPT-4 Turbo está abierto a todos los desarrolladores que pagan. Si tiene acceso a la API, simplemente puede especificar “gpt-4–1106-preview” como nombre del modelo en la API de OpenAI. Asimismo, para GPT-4 Turbo con visión, puede designar “gpt-4-vision-preview” como nombre del modelo.
Es importante tener en cuenta que estos modelos de vista previa aún no se recomiendan para uso en producción. Sin embargo, Altman ha asegurado que en un futuro próximo estará disponible una versión lista para producción.
Para los no desarrolladores, se espera que GPT-4 Turbo esté disponible para los usuarios de ChatGPT Plus y ChatGPT Enterprise en las próximas semanas.
Límites de tarifas
El acceso a los modelos GPT a través de la API OpenAI está sujeto a límites de velocidad, lo que significa que hay una cantidad máxima de solicitudes permitidas por mes. OpenAI ha proporcionado pautas claras sobre estos límites de velocidad para garantizar que las aplicaciones no enfrenten interrupciones inesperadas. Además, los límites de velocidad para GPT-4 se han duplicado.
Como GPT-4 Turbo se encuentra actualmente en la fase de vista previa, los límites de velocidad se establecen en 20 solicitudes por minuto y 100 solicitudes por día. OpenAI puede considerar ajustar estos límites una vez que esté disponible una versión pública.
Conclusiones
La introducción de GPT-4 Turbo ofrece una visión tentadora del futuro de la IA generativa, prometiendo una gran cantidad de posibilidades. Ya sea que recién esté comenzando su viaje con GPT o esté buscando una exploración en profundidad, hay un mundo de innovación por descubrir. Para los recién llegados, nuestro curso “Introducción a ChatGPT” es un excelente punto de partida. Y para aquellos que profundizan en GPT-3.5 y GPT-4 a través de la API OpenAI en Python, nuestro tutorial proporciona una gran cantidad de información para explorar.
Fuente: https://medium.com/@kumar.vishal9626/chatgpt-4-turbo-all-you-need-to-know-e141e644bcf4