A empresa chinesa de tecnologia DeepSeek anunciou, na noite de segunda-feira, dois novos modelos de inteligência artificial: o DeepSeek-V3.2 e sua variante de maior capacidade, o DeepSeek-V3.2-Speciale. As informações foram divulgadas pelo Diário do Povo, a partir de comunicado oficial da companhia. Com os lançamentos, a empresa busca consolidar presença na disputa internacional pelos modelos mais avançados de IA.
Segundo a DeepSeek, o V3.2 adota um protocolo robusto de reinforcement learning e amplia a capacidade de computação no pós-treinamento. A empresa afirma que esse conjunto de tecnologias permite alcançar desempenho comparável ao GPT-5, modelo lançado pela OpenAI em agosto de 2025. A companhia também destaca que os ajustes estruturais do sistema elevam a eficiência computacional e ampliam o potencial de raciocínio, com foco em tarefas de agente inteligente.
Ambiente global de competição acelera lançamentos
A disputa global entre empresas de tecnologia para avançar em sistemas de IA ganhou intensidade entre 2024 e 2025. Em agosto, a OpenAI anunciou o GPT-5 como seu modelo mais avançado, com ganhos de velocidade e desempenho geral. Em novembro, o Google apresentou ao mercado o Gemini-3.0-Pro, nova geração de sistemas multimodais.
Nesse contexto, a DeepSeek procura subir de patamar na competição com empresas norte-americanas. Em material técnico divulgado pela companhia, a variante de maior capacidade, o V3.2-Speciale, teria superado o GPT-5 em uma série de testes internos. A empresa também afirma que o modelo apresentou desempenho comparável ao Gemini-3.0-Pro em tarefas de raciocínio.
O comunicado afirma ainda que o V3.2-Speciale obteve resultados classificados como “medalha de ouro” nos testes inspirados na Olimpíada Internacional de Matemática (IMO 2025) e na Olimpíada Internacional de Informática (IOI). As avaliações, segundo a empresa, simulam padrões e metodologias aplicados nas competições.
Mecanismo DeepSeek Sparse Attention é o principal avanço
O avanço técnico destacado pela empresa é o mecanismo DeepSeek Sparse Attention. O sistema foi projetado para reduzir de maneira significativa a complexidade computacional envolvida no processamento de longos contextos, um dos principais desafios enfrentados por modelos de linguagem de grande escala. A companhia afirma que a solução mantém o nível de desempenho mesmo com o uso de menos recursos computacionais, o que permitiria treinar e operar modelos mais eficientes.
A DeepSeek sustenta que o mecanismo Sparse Attention deve viabilizar aplicação ampliada dos modelos, especialmente em ambientes que demandam processamento contínuo, operações de raciocínio prolongado e tarefas envolvendo agentes autônomos.
Estratégia global e posicionamento no mercado
A apresentação dos modelos ocorre em um cenário de crescente competição na área de IA, marcado pela disputa por domínio tecnológico, acesso a chips avançados e demanda crescente por modelos de alto desempenho. Empresas chinesas têm intensificado investimentos após restrições impostas pelos Estados Unidos ao fornecimento de semicondutores de última geração.
Nesse ambiente, companhias da China vêm ampliando o foco em modelos “abertos”, estratégia que busca aumentar adoção e estimular colaborações acadêmicas e empresariais. Embora a DeepSeek não tenha detalhado o regime de licenciamento do V3.2 e do V3.2-Speciale, analistas avaliam que a empresa deve buscar posicionamento semelhante ao adotado por concorrentes chinesas em outros lançamentos, combinando acesso ampliado com modelo de negócios voltado para serviços corporativos.
Trajetória acelerada da DeepSeek
Fundada em julho de 2023, a DeepSeek direciona suas atividades ao desenvolvimento de modelos de linguagem de grande escala e sistemas multimodais. Em menos de dois anos de operação, a empresa passou a integrar o grupo de organizações que disputam espaço com gigantes do setor.
O avanço rápido ganhou visibilidade internacional após a divulgação do modelo DeepSeek-R1, em janeiro de 2025. O sistema chamou atenção pelo desempenho em tarefas de raciocínio com custo computacional reduzido, desafiando concorrentes norte-americanos que utilizam infraestruturas de alta capacidade. A repercussão levou analistas a questionarem a possibilidade de empresas menores obterem resultados competitivos com investimentos inferiores aos necessários para modelos de fronteira tradicionais.
Com o anúncio do V3.2 e do V3.2-Speciale, a companhia busca afirmar o progresso técnico alcançado desde a fundação, ao mesmo tempo em que tenta consolidar posição entre os desenvolvedores de modelos de maior escala.
Perspectivas para o setor
A expectativa de especialistas do setor é de que o ritmo de lançamentos continue acelerado ao longo de 2025 e 2026. A disputa envolve, além de empresas e governos, debates sobre regulamentação, padronização de testes e impactos sobre infraestrutura tecnológica global.
A DeepSeek não informou datas para disponibilização ampla dos novos modelos nem as condições de acesso para empresas, pesquisadores ou desenvolvedores independentes. A previsão é de que novos detalhes sejam divulgados nas próximas semanas, com a publicação completa do relatório técnico e de benchmarks oficiais.