GPT-5 se promocionó como una importante mejora de ChatGPT. No todos los usuarios lo creen, y se han publicado hilos como “Kill 40 no es innovación, es eliminación” en Reddit.
por Will Knight
Cuando OpenAI completó GPT-2 en 2019, se alarmaron por el salto de rendimiento del algoritmo. La organización decidió retrasar el lanzamiento de GPT-2 por temor a que se usara indebidamente. También se dieron cuenta de que habían descubierto una tendencia muy potente. Simplemente escalar el algoritmo alimentándolo con más información y ampliando su red neuronal había dado resultados sorprendentes. Así que, por supuesto, lo volvieron a hacer. El siguiente modelo, GPT-3, fue aún más impresionante. No solo era mucho más elocuente, sino que también había adquirido habilidades matemáticas y de codificación rudimentarias e insinuaba cierto grado de generalidad.
Con cada lanzamiento, OpenAI atraía más atención. En noviembre de 2022, la compañía se popularizó por completo con ChatGPT. Un proyecto que los investigadores de OpenAI consideraron un avance de investigación y una oportunidad para recibir comentarios se convirtió en un fenómeno. ChatGPT se convirtió en la aplicación que más rápido atrajo 100 millones de usuarios mensuales . Poco después, GPT-4 superó con creces todo lo que GPT-3 podía hacer.
La serie GPT es ahora legendaria, y dado su historial de mejoras generacionales, las expectativas de la gente para GPT-5 eran altísimas. Pero cuando OpenAI lanzó su último algoritmo en agosto, las cosas no salieron como se esperaba. A primera vista, GPT-5 debería haber supuesto otro gran salto, similar a GPT-4. Algunos líderes de IA, como Sam Altman, CEO de OpenAI, y Dario Amodei, CEO de Anthropic, han afirmado que el escalamiento de la IA está lejos de terminar. Pero entre bastidores en OpenAI, la situación era más complicada .
Según The Information, el primer intento de la compañía con GPT-5 fue ampliar su escala. Con el nombre en código interno Orion, el modelo sería más grande y se entrenaría con más datos. Sin embargo, el proceso no rindió los frutos esperados. OpenAI finalmente denominó el algoritmo GPT-4.5 y lo lanzó en febrero. GPT-4.5 tuvo un rendimiento superior en algunas áreas, inferior en otras, y fue eliminado en agosto con el lanzamiento de GPT-5.
Los modelos de razonamiento ofrecieron otra vía para obtener las ganancias que OpenAI buscaba. El año pasado, rumores sugerían que la compañía había logrado un gran avance con un proyecto de IA de razonamiento llamado Q*. Estos modelos, que requieren más tiempo para analizar los problemas paso a paso, son más eficaces en el trabajo con matemáticas y programación. Los líderes sugirieron que el cómputo en tiempo de prueba (el tiempo permitido para este “pensamiento”) era una nueva ley de escala. Ahora, todas las grandes empresas de IA ofrecen modelos de razonamiento. Sin embargo, según The Information , las ganancias del primer modelo de razonamiento de OpenAI, o1, a su sucesor, o3, prácticamente se evaporaron en su lanzamiento, al no sobrevivir a la conversión a la interfaz ChatGPT.
“ En junio, los problemas técnicos hicieron que ninguno de los modelos de OpenAI en desarrollo pareciera lo suficientemente bueno como para ser etiquetado como GPT-5, según una persona que trabajó en él”, escribieron Stephanie Palazzolo, Erin Woo y Amir Efrati .
¿Qué pasó con GPT-5 entonces? En su lanzamiento, el nuevo modelo era en realidad una familia de modelos : dos algoritmos estándar, uno grande y otro pequeño, y dos modelos de razonamiento, igualmente grandes y pequeños, y un enrutador automatizado para elegir uno según los límites de consulta y uso. Según OpenAI, GPT-5 supera con creces diversas pruebas de rendimiento. Es especialmente bueno en codificación, escritura y tareas de salud, afirmaron, así como en el seguimiento de instrucciones y el uso de herramientas agénticas. También alucina (o inventa) menos.
Aun así, OpenAI enfrentó una fuerte reacción negativa tras el lanzamiento del modelo. Muchos usuarios dedicados consideraron que el tono del algoritmo era demasiado seco y técnico, que a veces no respondía a preguntas sencillas y que el router dejaba mucho que desear. Otros comentaron que la repentina pérdida de GPT-4o había interrumpido los flujos de trabajo y que sentían como si hubieran perdido a un amigo. Esta última queja forma parte de una tendencia en la que los usuarios desarrollan vínculos emocionales ( a veces dañinos o peligrosos ) con los chatbots. La empresa se apresuró a cambiar el tono de GPT-5, lo convirtió en la opción predeterminada, pero no la única, y devolvió GPT-4o, que acababan de declarar obsoleto, al menú desplegable de “modelos heredados”.
El rendimiento de referencia es una cosa, pero satisfacer a 700 millones de usuarios es algo completamente distinto. Y si bien GPT-5 puede ser mejor en algunos aspectos, no supone un avance generalizado como las versiones anteriores de GPT. De todo esto se desprenden algunas conclusiones.
El escalado de la IA parece estar ralentizándose. Los mayores avances obtenidos durante el preentrenamiento —es decir, aumentar el tamaño de los modelos y alimentarlos con más datos— parecen haber quedado atrás (al menos por ahora). Aún se están produciendo mejoras después del preentrenamiento, donde las empresas se apoyan considerablemente en el aprendizaje por refuerzo y la computación en tiempo de prueba. Sin embargo, no está claro que estos puedan tomar el relevo en el escalado. Estudios recientes han puesto en duda la robustez de los modelos de razonamiento y su alcance.
La era de la IA como producto. Esto no significa que la IA actual no sea útil. Puede serlo, y aún hay margen para perfeccionarla como producto de consumo. La IA generativa es una tecnología de interfaz. Otros ejemplos incluyen los smartphones y las interfaces gráficas de usuario (como Microsoft Windows). El primer iPhone llevó a la gente más allá de las computadoras portátiles y de escritorio. Era algo nuevo. Pero después de ese primer gran paso, las empresas dedicaron muchos años a perfeccionar los smartphones hasta convertirlos en elegantes rectángulos de cristal de los que no podemos prescindir.
Pequeñas ganancias pueden ser beneficiosas. Desde una perspectiva empresarial, las principales empresas de IA siguen experimentando una rápida adopción y un rápido crecimiento de sus ingresos. OpenAI cuenta con 700 millones de usuarios activos semanales y proyecta 20 000 millones de dólares en ingresos anualizados para finales de año, frente a los aproximadamente 6 000 millones de dólares de principios de año . Incluso los cambios graduales que facilitan el uso de los productos o amplían sus aplicaciones podrían aumentar aún más la demanda. Sin embargo, la gran pregunta es si el tamaño del mercado, a medida que madure, cubrirá las enormes inversiones en chips y centros de datos que se están realizando .
El futuro aún está por llegar. Sin duda, hay quienes creen que la IA generativa basada en transformadores —la arquitectura que dio origen a todo esto— nos permitirá alcanzar sistemas mucho más potentes, incluso a niveles vagamente definidos como la inteligencia artificial general o la superinteligencia. Pero otras voces muy respetadas creen que necesitaremos al menos algunos grandes avances más. Ilya Sutskever, pionero del aprendizaje profundo y cofundador y exdirector científico de OpenAI, cree que las ganancias derivadas del escalado del preentrenamiento se están estancando a medida que la industria se queda sin datos . «Solo hay un internet», declaró en NeurIPS el pasado diciembre. Demis Hassabis, de Google DeepMind, también declaró a Wired el año pasado que necesitaremos la máxima escalabilidad y nuevos descubrimientos. En junio, afirmó que su equipo tiene «tres o cuatro ideas prometedoras que podrían convertirse en el próximo transformador».
“La década de 2010 fue la era del crecimiento, ahora volvemos a la era de la maravilla y el descubrimiento”, declaró Sutskever a Reuters . “Todos buscan el futuro”.
Fuente: https://www.wired.com/story/openai-gpt-5-backlash-sam-altman/