¿Podría esto transformar por completo la forma en que construimos inteligencia artificial?
La actual pelea entre los actores tecnológicos que compiten por obtener la IA más intuitiva y poderosa puede haber recibido un breve golpe de gracia.
¿El slammer que aterrizó?
Una nueva versión del cada vez más impresionante V3.1 de DeepSeek, que tiene un enorme sistema de 685 mil millones de parámetros y puede ofrecer alrededor de $1,01 por tarea de codificación completa, en comparación con un precio inicial de $70 para los sistemas tradicionales.
DeepSeek no es ajeno a sorprender al mundo. Su modelo R1 se lanzó el año pasado y sorprendió de inmediato a los analistas de IA con su velocidad y precisión en comparación con sus competidores occidentales, y parece que la versión 3.1 podría seguir su ejemplo.
Ese precio y la complejidad del servicio suponen un desafío directo para los sistemas de vanguardia más grandes y recientes de OpenAI y Anthropic, ambos con sede en EE. UU. El enfrentamiento entre los sistemas tecnológicos chinos y estadounidenses se ha prolongado durante años, pero la incorporación de un competidor tan formidable de una empresa mucho más pequeña podría marcar el inicio de una nueva era de desafíos. Alibaba Group Holding Ltd. y Moonshot también han lanzado modelos de IA que desafían a la tecnología estadounidense.
“Si bien muchos reconocen los logros de DeepSeek, esto representa solo el comienzo de la ola de innovación en IA en China”, declaró a Bloomberg Louis Liang, inversor del sector de IA en Ameba Capital . “Estamos presenciando la adopción masiva de la IA, que va más allá de la competencia nacional”.
¿Por qué importa todo esto?
El enfoque de DeepSeek sobre el funcionamiento de la IA difiere de la forma en que la mayoría de las empresas tecnológicas estadounidenses han abordado la idea. Esto podría transformar la competencia global, que se centra en la accesibilidad en lugar de la potencia, según informa VentureBeat.
También desafía a gigantes como Meta y Alphabet al procesar una cantidad mucho mayor de datos, lo que genera una “ventana de contexto” más grande, es decir, la cantidad de texto que un modelo puede considerar al responder una consulta. Esto es importante para los usuarios, ya que mejora la capacidad del modelo para mantenerse comprensible en conversaciones largas, usar la memoria para completar tareas complejas que ya ha realizado y comprender cómo se relacionan las diferentes partes del texto.
Lo más importante es que a los usuarios les encanta.
¿Otro gran logro? La versión 3.1 de DeepSeek obtuvo una puntuación del 71,6 % en el benchmark de codificación de Aider , un logro considerable considerando que apenas debutó anoche en el popular tester de herramientas de IA Hugging Face , y prácticamente arrasó al instante con otros rivales como el modelo ChatGPT 4.5 de OpenAI, que obtuvo un mísero 40 %.
“Deepseek v3.1 obtiene un 71,6 % en la prueba SOTA (Sistema de Información de Alta Velocidad) sin razonamiento”, tuiteó el investigador de IA Andrew Christianson , añadiendo que es “un 1 % más caro que Claude Opus 4 y 68 veces más económico”. Este logro sitúa a DeepSeek en un grupo selecto, igualando los niveles de rendimiento anteriormente reservados para los sistemas propietarios más caros.

Fuente: https://gizmodo.com/deepseek-v-3-1-release-aider-score-china-ai-2000645531