DeepSeek anunciou o lançamento de seus últimos modelos de linguagem grande, V4 Pro e V4 Flash, menos de um ano após o aplicativo gratuito da startup ter alcançado o topo da loja de aplicativos da Apple nos EUA. Em um comunicado breve, a empresa destacou uma "janela de contexto de um milhão de tokens custo-efetiva", uma métrica que mede quantos tokens um modelo pode reter em uma única conversa. Quanto maior a janela de contexto, mais coerente o diálogo pode permanecer ao longo de interações prolongadas.
Especificações e capacidades do modelo
De acordo com a DeepSeek, o V4 Pro tem capacidades agênticas aprimoradas e é projetado para competir com as principais alternativas de código fechado em tarefas de raciocínio. A empresa posiciona a versão Pro logo atrás do Gemini-3.1-Pro em termos de conhecimento do mundo, enquanto sugere que supera a maioria dos outros modelos. O V4 Flash, descrito como um irmão mais leve, troca uma pequena perda de poder raw por tempos de resposta mais rápidos. A DeepSeek afirma que a capacidade de raciocínio do Flash permanece próxima à do Pro e que ele é igual ao Pro em tarefas de agente simples.
Ambos os modelos permanecem de código aberto, permitindo que os desenvolvedores baixem o código, o modifiquem e o integrem em seus próprios sistemas. Essa abertura contrasta com muitos jogadores da indústria que mantêm seus modelos mais avançados proprietários.
Reação regulatória
Dentro de dias após o lançamento, as agências federais dos EUA moveram para bloquear o aplicativo DeepSeek em dispositivos governamentais, rotulando-o como um risco para a segurança nacional e uma ameaça potencial aos mercados de IA domésticos. A proibição se aplica a todos os funcionários e contratados federais que possam instalar o software em hardware oficial. A Coreia do Sul seguiu o exemplo, pausando as novas downloads do aplicativo devido a preocupações sobre a privacidade do usuário.
A resposta regulatória rápida destaca a tensão entre o avanço rápido da IA e a necessidade de supervisão. Enquanto a DeepSeek promove seus modelos como alternativas acessíveis e de alto desempenho, as autoridades parecem desconfortáveis com a natureza de código aberto da tecnologia e seu possível mau uso.
Observadores da indústria notam que a OpenAI recentemente divulgou seu próprio modelo GPT-5.5, que pode operar com uma janela de contexto que varia de 400.000 a um milhão de tokens. A afirmação da DeepSeek de uma janela de contexto de um milhão de tokens a coloca diretamente em competição com a oferta futura da gigante da tecnologia.
À medida que o cenário de IA evolui, a estratégia dupla da DeepSeek - empurrando os limites técnicos enquanto mantém seus modelos acessíveis - provavelmente testará o equilíbrio que os reguladores buscam entre inovação e segurança.
Dieser Artikel wurde mit Unterstützung von KI verfasst.
News Factory SEO hilft Ihnen, Nachrichteninhalte für Ihre Website zu automatisieren.