Noticias

DeepSeek V4: el modelo de IA abierto que compite con Claude y GPT a menor costo

DeepSeek lanzó V4 Preview en pesos abiertos con dos versiones, contexto de 1 millón de tokens y precios hasta 9 veces más baratos que GPT.

Compartir

DeepSeek-V4 nuevamente instala una presión sobre el mercado de modelos avanzados, porque su argumento no descansa únicamente en rendimiento. La familia llega con pesos abiertos, soporte para una ventana de contexto de 1 millón de tokens y una estructura de precios que queda muy por debajo de los modelos propietarios de gama alta.

La comparación resulta especialmente relevante para desarrolladores y empresas que trabajan con grandes volúmenes de texto. En esos casos, el costo por millón de tokens puede definir si un sistema de análisis documental, agentes internos o programación asistida es viable a escala.

La diferencia de precio frente a Claude y GPT

Los valores oficiales muestran una diferencia marcada en el costo de salida, que suele ser uno de los componentes más sensibles en aplicaciones intensivas. DeepSeek-V4-Flash cobra USD 0,28 por millón de tokens generados, mientras Claude Opus 4.7 llega a USD 25 y GPT-5.5 parte en USD 30 bajo el tramo estándar.

Para DeepSeek-V4-Pro, la comparación debe mirar dos tramos de precio, el promocional vigente hasta el 5 de mayo de 2026 y el regular, que eleva la salida a USD 3,48 por millón de tokens. Aun con ese valor final, el modelo queda por debajo de Claude Opus 4.7 y GPT-5.5, cuyos costos de salida se mueven en un rango bastante más alto.

Esto no convierte a DeepSeek-V4 en una respuesta superior para cualquier tarea. Su importancia está en otra parte: demuestra que un modelo abierto puede entrar a la competencia premium con una economía mucho más favorable para cargas de alto volumen, sin obligar a pagar tarifas propias del segmento cerrado más caro.

Costo por token frente a calidad en contexto largo

Para cruzar precio y calidad de salida, no se usó una tabla general de capacidades, sino dos pruebas centradas en contexto largo: LongMRCR 1M y CorpusQA 1M. La primera mide recuperación dentro de una ventana de 1 millón de tokens, mientras la segunda se acerca más a escenarios reales de consulta sobre grandes volúmenes de información.

La comparación queda limitada a DeepSeek-V4-Pro-Max y Claude Opus 4.6 Max, porque ambos aparecen con datos completos en esos dos benchmarks. Luego de buscar en diferentes documentos y reportes, no hay documentación completa para analizar con GPT-5.4, GPT-5.5 o Claude Opus 4.7.

DeepSeek-V4-Flash también se excluye del cruce principal, ya que no aparece en la misma matriz contra Claude con LongMRCR 1M y CorpusQA 1M, por lo que mezclarlo distorsionaría la lectura.

La tabla muestra que Claude Opus 4.6 Max conserva una ventaja clara en desempeño bruto dentro de los dos benchmarks seleccionados. Sin embargo, esa diferencia no compensa por completo la distancia de precio cuando el análisis se traslada al costo por punto de rendimiento.

DeepSeek-V4-Pro-Max queda por debajo en calidad, pero entrega una relación más favorable entre gasto y desempeño en contexto largo. Para cargas intensivas en tokens, esa brecha puede ser más relevante que la diferencia de puntaje, especialmente en despliegues donde el volumen operativo define la viabilidad económica.

Ivan

Editor especializado en ciencia y tecnología, con foco en innovación, inteligencia artificial, telecomunicaciones y centros de datos. Trabajo con un enfoque riguroso y técnico, desarrollando contenidos sobre semiconductores, energía, ciberseguridad e infraestructura tecnológica.

Los comentarios de Disqus están cargando....
Publicado por
Ivan