DeepSeek, o laboratório de inteligência artificial chinês, lançou versões de pré-visualização de sua última família de modelos de linguagem grande na terça-feira, introduzindo DeepSeek V4 Flash e DeepSeek V4 Pro. Ambos os modelos empregam uma arquitetura de mistura de especialistas que ativa apenas um subconjunto de parâmetros para cada tarefa, uma estratégia que reduz os custos de inferência sem sacrificar a capacidade.
Cada modelo suporta uma janela de contexto de 1 milhão de tokens, um tamanho que permite que os desenvolvedores incorporem código-fonte ou documentos longos em uma única solicitação. O menor V4 Flash tem 284 bilhões de parâmetros totais, dos quais 13 bilhões estão ativos a qualquer momento. Seu irmão maior, V4 Pro, tem 1,6 trilhão de parâmetros totais e 49 bilhões de parâmetros ativos, tornando-o o maior modelo de peso aberto atualmente disponível. Em comparação, o Kimi K 2.6 da Moonshot AI tem 1,1 trilhão de parâmetros e o M1 da MiniMax tem 456 bilhões.
DeepSeek afirma que ajustes arquitetônicos dão à série V4 uma vantagem mensurável sobre seu antecessor, V3.2, que tinha 671 bilhões de parâmetros. O laboratório afirma que os novos modelos têm "quase fechado a lacuna" com os sistemas de código fechado líderes em benchmarks de racionalização. Em testes de cabeça a cabeça, o V4-Pro-Max relatou ter superado os rivais de código aberto em uma série de tarefas lógicas e até superou o GPT-5.2 da OpenAI e o Gemini 3.0 Pro da Google em benchmarks selecionados. Competições de codificação mostraram desempenho comparável ao GPT-5.4.
Avaliações baseadas em conhecimento contam uma história ligeiramente diferente. Os modelos V4 ficam atrás das últimas ofertas de fronteira - GPT-5.4 da OpenAI e Gemini 3.1 Pro da Google - por um período estimado de três a seis meses em recall de fatos brutos. DeepSeek reconhece a lacuna, enquadrando-a como uma "trajetória de desenvolvimento" em vez de um defeito.
O preço é um recurso destacado. O DeepSeek V4 Flash custa $0,14 por milhão de tokens de entrada e $0,28 por milhão de tokens de saída, superando os mais baratos níveis do GPT-5.4 Nano, Gemini 3.1 Flash e Claude Haiku 4.5. As taxas do V4 Pro estão em $0,145 por milhão de tokens de entrada e $3,48 por milhão de tokens de saída, ainda mais barato do que o Gemini 3.1 Pro, GPT-5.5 e Claude Opus 4.7. Ambos os modelos atualmente lidam apenas com texto, faltando as capacidades multimodais - áudio, vídeo, geração de imagens - encontradas em muitos concorrentes.
O lançamento ocorre em meio a um escrutínio aumentado das empresas de IA chinesas. Funcionários dos EUA recentemente acusaram a China de roubo de propriedade intelectual em grande escala visando laboratórios de IA americanos. A própria DeepSeek enfrentou alegações da Anthropic e da OpenAI de "destilar" - basicamente copiar - seus modelos. Apesar da controvérsia, a empresa posiciona a série V4 como uma alternativa acessível para empresas e desenvolvedores que buscam soluções de peso aberto.
Este artigo foi escrito com a assistência de IA.
News Factory SEO ajuda você a automatizar conteúdo de notícias para o seu site.