DeepSeek lanza el guante a OpenAI y Google con sus nuevos modelos de código abierto
La carrera por la supremacía en inteligencia artificial tiene un nuevo contendiente de peso que no viene de Silicon Valley, sino de Hangzhou. DeepSeek, la startup china que en enero revolucionó el mercado con un modelo de eficiencia excepcional, ha vuelto a la carga. Esta vez presenta DeepSeek-V3.2 y DeepSeek-V3.2-Speciale, dos modelos que no solo prometen, sino que según sus creadores, igualan o superan a los pesos pesados de la industria en las pruebas más duras.
La afirmación es contundente: DeepSeek asegura que su V3.2 empata el rendimiento del aún misterioso GPT-5 de OpenAI en múltiples evaluaciones de razonamiento, mientras que el modelo «Speciale» alcanza el nivel de Gemini-3 Pro de Google. Para dejar las cosas claras, este último ha logrado algo que pocas IAs pueden presumir: medallas de oro en olimpiadas internacionales de matemáticas e informática. No es un logro menor.
La innovación bajo el capó: pensamiento integrado en las herramientas
¿Cuál es el truco? DeepSeek ha dado un paso más allá en la integración del razonamiento con la capacidad de actuar. Tradicionalmente, los modelos de IA que usan herramientas (como buscar en web, calcular o ejecutar código) lo hacen de forma secuencial: piensan, actúan, piensan de nuevo. V3.2 cambia el juego al integrar el «pensamiento» directamente en el proceso de uso de la herramienta.
Puede razonar internamente mientras ejecuta una búsqueda o escribe una línea de código, manteniendo una cadena de pensamiento coherente entre llamadas. Lo más interesante es que ofrece dos modos de operación para el usuario: uno donde puedes ver todo ese razonamiento paso a paso (como en ChatGPT), y otro donde opera en silencio, mostrando solo el resultado final. La cadena de pensamiento solo se reinicia cuando tú inicias una nueva conversación.
El secreto de la eficiencia: hacer más con menos
Lograr esta potencia sin que los costes computacionales se disparen es otro de los milagros de DeepSeek. La clave reside en su arquitectura patentada: la DeepSeek Sparse Attention (DSA). En términos simples, es como si el modelo tuviera un cerebro enorme de 671 mil millones de parámetros, pero solo activara la parte necesaria (37 mil millones) para procesar cada fragmento de información (token).
Los números hablan por sí solos:
- Reduce el coste de inferencia en contextos largos en aproximadamente un 50% respecto a su arquitectura anterior.
- Maneja ventanas de contexto de 128.000 tokens en producción.
- Su entrenamiento como «agente» ha sido masivo, usando más de 1.800 entornos sintéticos y 85.000 tareas creadas específicamente.
| Modelo | Comparativa Declarada | Logros Clave | Disponibilidad |
|---|---|---|---|
| DeepSeek-V3.2 | Rendimiento similar a GPT-5 en razonamiento | Alta eficiencia, uso integrado de herramientas | App, Web y API |
| DeepSeek-V3.2-Speciale | Nivel de Gemini-3 Pro | Medallas de oro en Olimpiadas Internacionales (Matemáticas, Informática) | Solo API (por ahora) |
Transparencia radical: el arma secreta china
Mientras las grandes tecnológicas occidentales suelen guardar sus cartas bajo la manga, DeepSeek está jugando un juego diferente. La startup ha publicado los pesos completos del modelo y un informe técnico detallado de todo el proceso de entrenamiento. Esta transparencia es un guante lanzado directamente a la filosofía de «caja negra» que predomina en OpenAI, Google e incluso en Meta con sus modelos Llama (que, recordemos, son de «código abierto» con asterisco).
El mensaje es claro: los modelos de código abierto no solo pueden existir, sino que pueden competir de tú a tú con los sistemas propietarios más avanzados y caros del mundo. Y todo ello mientras reducen drásticamente la factura eléctrica y computacional necesaria para funcionar.
La prueba definitiva está en el mundo real
Por supuesto, hay que tomar los benchmarks con cierta perspectiva. Ganar una olimpiada matemática con problemas estructurados es una cosa; ayudar a un investigador a analizar datos desordenados o a una empresa a automatizar un proceso complejo es otra muy distinta. La integración fluida de herramientas en escenarios reales, caóticos e impredecibles, será el verdadero campo de batalla donde se decidirá si V3.2 es tan revolucionario como parece.
DeepSeek ha planteado la partida. Ahora le toca mover ficha al resto de la industria. Lo que está en juego ya no es solo quién tiene el modelo más listo, sino quién puede construir el modelo más listo, más eficiente y más abierto. Y por primera vez, el centro de esa innovación podría no tener código postal de California.



