DeepSeek V4 ya está aquí. Son buenas noticias para la eficiencia y malas noticias para el mito
DeepSeek ha publicado su modelo V4 bajo licencia MIT, con mejoras notables en código y arquitectura diseñada para chips chinos. También ha admitido, en su propio informe técnico, que va de tres a seis meses por detrás de los modelos occidentales punteros. Para un laboratorio que hace poco más de un

Image: Xataka
DeepSeek ha publicado su modelo V4 bajo licencia MIT, con mejoras notables en código y arquitectura diseñada para chips chinos. También ha admitido, en su propio informe técnico, que va de tres a seis meses por detrás de los modelos occidentales punteros.
Para un laboratorio que hace poco más de un año cambió la narrativa global de la IA, eso es mucho más que un matiz.
Por qué es importante. DeepSeek se convirtió en un símbolo en enero de 2025. Su momento sacudió los mercados, cuestionó la lógica de la bolsa tecnológica estadounidense y convenció a medio mundo de que China podía competir de tú a tú en la frontera de la IA, a una fracción del coste.
No es que V4 destruya ese relato, pero sí lo complica un poco. El laboratorio más importante de China en IA llega con un modelo que sus propios ingenieros describen como un paso, no como un salto.
El contexto. V4 ha tardado más de lo esperado en llegar. Según fuentes del sector recogidas por 36Kr, DeepSeek sufrió un fallo grave de entrenamiento a mediados de 2025 mientras intentaba migrar su infraestructura de NVIDIA a los chips Ascend de Huawei.
Las opiniones internas sobre la dirección técnica no estaban alineadas, y el fundador, Liang Wenfeng, impuso condiciones que resultaron difíciles de ejecutar. El resultado: meses de retraso y un modelo que, además, sigue sin ser multimodal, pospuesto por falta de capacidad de cómputo y de caja.
Entre líneas. Lo más interesante de V4 está en su arquitectura. El modelo introduce TileLang, un lenguaje de dominio específico que permite desacoplar el código de bajo nivel de CUDA (el estándar de NVIDIA) y compilarlo para distintos chips.
También incorpora MegaMoE, un kernel diseñado para reducir la latencia en paralelismo de expertos que ya corre en hardware Ascend. Pero el entrenamiento de V4 ha seguido usando GPUs NVIDIA. La independencia es, de momento, más una aspiración que un hecho consumado.
Punto de inflexión. Mientras DeepSeek miraba hacia dentro, el mercado chino se ha ido reorganizando sin ella:
- Doubao, de ByteDance, se ha convertido en el chatbot más descargado de China.
- MiniMax y Z.ai han salido a bolsa.
- Alibaba ha logrado una gran adopción gracias a aplicaciones verticales.
DeepSeek nunca quiso construir un producto de consumo, y el mercado no la ha esperado.
La factura interna también ha llegado: el laboratorio ha perdido talento clave a manos de Tencent, ByteDance y Xiaomi en prácticamente todas las áreas. Liang Wenfeng rechazó ceder un 20% a un gran inversor no identificado. Y ahora, por primera vez, DeepSeek abre una ronda de financiación externa.
Artículo original
DeepSeek V4 ya está aquí. Son buenas noticias para la eficiencia y malas noticias para el mito
Publicado por Xataka