DeepSeek anunció el lanzamiento de sus últimos modelos de lenguaje grande, V4 Pro y V4 Flash, menos de un año después de que la aplicación gratuita de la startup llegara a la cima de la tienda de aplicaciones de Apple en EE. UU. En un breve comunicado, la empresa destacó una "longitud de contexto de 1 millón de tokens a un costo efectivo", una métrica que mide la cantidad de tokens que un modelo puede retener en una sola conversación. La ventana de contexto más larga permite que el diálogo sea más coherente durante interacciones extendidas.
Especificaciones y capacidades del modelo
Según DeepSeek, V4 Pro cuenta con capacidades agénticas mejoradas y está diseñado para competir con las alternativas de código cerrado líderes en tareas de razonamiento. La empresa posiciona la versión Pro justo detrás de Gemini-3.1-Pro en términos de conocimiento del mundo, mientras sugiere que supera a la mayoría de los otros modelos. V4 Flash, descrito como un hermano menor, intercambia una disminución modesta en potencia bruta por tiempos de respuesta más rápidos. DeepSeek afirma que la capacidad de razonamiento de Flash sigue siendo cercana a la de Pro y que coincide con Pro en tareas de agente simples.
Ambos modelos siguen siendo de código abierto, lo que permite a los desarrolladores descargar el código, modificarlo e integrarlo en sus propios sistemas. Esta apertura contrasta con muchos actores de la industria que mantienen sus modelos más avanzados como propiedad privada.
Rechazo regulatorio
Dentro de los días siguientes al lanzamiento, las agencias federales de EE. UU. se movieron para bloquear la aplicación DeepSeek en dispositivos propiedad del gobierno, etiquetándola como un riesgo para la seguridad nacional y una amenaza potencial para los mercados de IA nacionales. La prohibición se aplica a todos los empleados y contratistas federales que podrían instalar el software en hardware oficial. Corea del Sur siguió el ejemplo, pausando las nuevas descargas de la aplicación debido a preocupaciones sobre la privacidad del usuario.
La respuesta regulatoria rápida subraya la tensión entre el avance rápido de la IA y la necesidad de supervisión. Mientras DeepSeek promueve sus modelos como alternativas asequibles y de alto rendimiento, las autoridades parecen inquietas por la naturaleza de código abierto de la tecnología y su posible mal uso.
Los observadores de la industria señalan que OpenAI recientemente divulgó su propio modelo GPT-5.5, que puede operar con una ventana de contexto que va desde 400.000 hasta un millón de tokens. La afirmación de DeepSeek de una ventana de contexto de un millón de tokens la coloca directamente en competencia con la próxima oferta de la gigante tecnológica.
A medida que el panorama de la IA evoluciona, la estrategia dual de DeepSeek - empujar los límites técnicos mientras mantiene sus modelos accesibles - probablemente pondrá a prueba el equilibrio que los reguladores buscan entre innovación y seguridad.
Questo articolo è stato scritto con l'assistenza dell'IA.
News Factory SEO ti aiuta ad automatizzare i contenuti delle notizie per il tuo sito.