La nueva arquitectura de IA de la startup china DeepSeek promete ejecutar modelos de un millón de tokens con un 73% menos de recursos informáticos, amenazando directamente la estructura de costes del mercado actual de hardware de IA.
Atrás
La nueva arquitectura de IA de la startup china DeepSeek promete ejecutar modelos de un millón de tokens con un 73% menos de recursos informáticos, amenazando directamente la estructura de costes del mercado actual de hardware de IA.

La nueva arquitectura de IA de la startup china DeepSeek promete ejecutar modelos de un millón de tokens con un 73% menos de recursos informáticos, amenazando directamente la estructura de costes del mercado actual de hardware de IA. La empresa afirma que su nuevo modelo V4 puede manejar un contexto de un millón de tokens utilizando solo el 27% de la potencia de cómputo y el 10% de la memoria de su predecesor, un cambio estructural que podría reducir significativamente los costes para los desarrolladores e intensificar la competencia para los actores establecidos como Nvidia y Google.
"De ahora en adelante, el contexto 1M (un millón) será la configuración estándar para todos los servicios oficiales de DeepSeek", dijo la compañía en su anuncio oficial. Este movimiento es un desafío directo a los altos costes asociados con la IA de gran contexto, un problema que el CEO de Nvidia, Jensen Huang, ha destacado como una barrera crítica. Aunque los puntos de referencia de DeepSeek muestran que todavía está por detrás de los modelos cerrados más avanzados de Google en conocimiento general, sus ganancias de eficiencia representan una nueva y formidable amenaza en la carrera armamentista de la IA.
La eficiencia del modelo V4 proviene de una nueva arquitectura de atención híbrida. Reduce la carga computacional, medida en operaciones de punto flotante por segundo (FLOPs), a solo el 27% del modelo V3.2 anterior para la inferencia de un solo token en un contexto de 1M de tokens. La caché KV requerida, un cuello de botella clave para la memoria, se reduce a solo el 10% de la versión anterior. La compañía lanzó dos versiones: la V4-Pro, un modelo de 1,6 billones de parámetros, y un modelo V4-Flash más pequeño, ambos disponibles bajo una licencia MIT de código abierto.
Para los inversores, el avance de DeepSeek representa una interrupción potencial para el mercado actual. Al diseñar un modelo que depende menos de la potencia de cómputo bruta, la empresa crea una oportunidad para hardware alternativo, como los chips Ascend de Huawei. Esto se alinea con las advertencias del propio CEO de Nvidia sobre China construyendo su propia pila de IA independiente. DeepSeek, que según se informa busca una valoración de más de 20.000 millones de dólares con el respaldo de Alibaba y Tencent, podría comprimir los márgenes para los proveedores de la nube y los fabricantes de chips si sus ventajas de costes demuestran ser escalables e impulsan una adopción generalizada.
La innovación principal detrás de DeepSeek V4 es un enfoque doble para rediseñar el mecanismo de atención, el corazón computacional de un modelo transformer. La atención estándar requiere que cada token calcule una puntuación de relevancia con cada otro token en una secuencia, lo que lleva a una complejidad computacional que crece cuadráticamente, una barrera importante para comercializar ventanas de contexto de un millón de tokens.
La solución de DeepSeek combina la Atención Escasa Comprimida (CSA) y la Atención Fuertemente Comprimida (HCA). La CSA utiliza un mecanismo entrenable para aprender qué conexiones de tokens son lo suficientemente importantes para un cálculo completo, creando dinámicamente una estructura escasa en lugar de calcular todo. La HCA aborda el problema de la memoria comprimiendo la caché KV, los datos que deben mantenerse en la costosa memoria de la GPU durante la inferencia. Juntas, estas innovaciones permiten a DeepSeek atender de 3 a 4 veces el número de usuarios concurrentes en el mismo hardware en comparación con las arquitecturas tradicionales.
Aunque la eficiencia del DeepSeek V4-Pro es su característica principal, sus puntos de referencia de rendimiento pintan la imagen de un competidor especializado. El modelo destaca en matemáticas y programación, con una puntuación de 3206 en el benchmark Codeforces, superando las puntuaciones reportadas para los modelos de OpenAI y Google. Sin embargo, en las pruebas de conocimiento general del mundo y razonamiento avanzado, se queda atrás. En el benchmark SimpleQA-Verified, el V4 obtuvo una puntuación de 57,9, muy por detrás de la puntuación de 75,6 del Gemini 3.1 Pro de Google.
Esto sugiere que DeepSeek está centrando sus recursos en capacidades específicas de alto valor donde puede establecer una ventaja clara, en lugar de intentar vencer a los modelos de vanguardia en todos los frentes. Esta estrategia, combinada con su enfoque de código abierto y bajo coste, ya le ha permitido encabezar las listas de descargas de la App Store de Apple en sus primeras semanas, lo que indica un fuerte apetito del mercado por alternativas a los costosos modelos propietarios de los gigantes tecnológicos estadounidenses. El surgimiento de un modelo potente y eficiente en costes optimizado para hardware no estadounidense es exactamente el escenario que Jensen Huang de Nvidia describió como un "resultado horrible para nuestra nación", y parece estar desarrollándose más rápido de lo que muchos esperaban. La pregunta clave para los inversores es con qué rapidez esta ventaja arquitectónica se traduce en cuota de mercado e ingresos, y si los actores establecidos como Nvidia pueden adaptar sus propias hojas de ruta para contrarrestar la amenaza de un mundo de hardware de IA más eficiente y multipolar.
Este artículo tiene únicamente fines informativos y no constituye asesoramiento de inversión.