DeepSeek, el laboratorio de investigación de inteligencia artificial china, presentó versiones de previsualización de su última familia de modelos de lenguaje grande el martes, introduciendo DeepSeek V4 Flash y DeepSeek V4 Pro. Ambos modelos emplean un diseño de mezcla de expertos que activa solo un subconjunto de parámetros para cada tarea, una estrategia que reduce los costos de inferencia sin sacrificar la capacidad.

Cada modelo admite una ventana de contexto de 1 millón de tokens, un tamaño que permite a los desarrolladores incrustar repositorios de código completos o documentos largos dentro de una sola solicitud. El modelo V4 Flash más pequeño tiene 284.000 millones de parámetros totales, de los cuales 13.000 millones están activos en cualquier momento. Su hermano mayor, V4 Pro, cuenta con 1,6 billones de parámetros totales y 49.000 millones activos, lo que lo convierte en el modelo de peso abierto más grande actualmente disponible. En comparación, Moonshot AI’s Kimi K 2.6 tiene 1,1 billones de parámetros y MiniMax’s M1 se sitúa en 456.000 millones.

DeepSeek afirma que los ajustes arquitectónicos dan a la serie V4 una ventaja medible sobre su predecesor, V3.2, que tenía 671.000 millones de parámetros. El laboratorio afirma que los nuevos modelos han “cerrado casi la brecha” con los sistemas de código cerrado líderes en las pruebas de razonamiento. En las pruebas cara a cara, V4-Pro-Max supuestamente superó a los rivales de código abierto en una suite de tareas lógicas y incluso superó a OpenAI’s GPT-5.2 y Google’s Gemini 3.0 Pro en pruebas seleccionadas. Las competencias de codificación mostraron un rendimiento comparable a GPT-5.4.

Las evaluaciones basadas en conocimientos cuentan una historia ligeramente diferente. Los modelos V4 se quedan atrás de las últimas ofertas de vanguardia —OpenAI’s GPT-5.4 y Google’s Gemini 3.1 Pro— en un estimado de tres a seis meses en la recuperación de hechos brutos. DeepSeek reconoce la brecha, enmarcándola como una “trayectoria de desarrollo” en lugar de un defecto.

El precio es una característica destacada. DeepSeek V4 Flash cuesta $0,14 por millón de tokens de entrada y $0,28 por millón de tokens de salida, superando los niveles más baratos de GPT-5.4 Nano, Gemini 3.1 Flash y Claude Haiku 4.5. Las tarifas de V4 Pro se sitúan en $0,145 por millón de tokens de entrada y $3,48 por millón de tokens de salida, aún más baratas que Gemini 3.1 Pro, GPT-5.5 y Claude Opus 4.7. Ambos modelos actualmente solo manejan texto, careciendo de las capacidades multimodales —generación de audio, video, imagen— encontradas en muchos competidores de código cerrado.

El lanzamiento llega en medio de un escrutinio aumentado de las empresas de inteligencia artificial china. Los funcionarios estadounidenses acusaron recientemente a China de robo a gran escala de propiedad intelectual dirigida a laboratorios de inteligencia artificial estadounidenses. DeepSeek mismo ha enfrentado acusaciones de Anthropic y OpenAI de “destilar”—esencialmente copiar—sus modelos. A pesar de la controversia, la empresa posiciona la serie V4 como una alternativa rentable para empresas y desarrolladores que buscan soluciones de peso abierto.

Dieser Artikel wurde mit Unterstützung von KI verfasst.
News Factory SEO hilft Ihnen, Nachrichteninhalte für Ihre Website zu automatisieren.