【DeepSeek發(fā)布V3.2正式版】12月1日晚間,DeepSeek在官方公號宣布,發(fā)布兩個正式版模型:DeepSeek-V3.2和DeepSeek-V3.2-Speciale。其中,DeepSeek-V3.2的目標(biāo)是平衡推理能力與輸出長度,適合日常使用,例如問答場景和通用Agent任務(wù)場景。在公開的推理類Benchmark測試中,DeepSeek-V3.2達到了 GPT-5的水平,僅略低于Gemini-3.0-Pro;相比Kimi-K2-Thinking,V3.2的輸出長度大幅降低,顯著減少了計算開銷與用戶等待時間。
【機會前瞻】
12月1日晚間,DeepSeek在官方公眾號宣布,同步推出DeepSeek-V3.2與DeepSeek-V3.2-Speciale兩款正式版模型,前者聚焦平衡實用與效率,后者主打極致推理能力,兩款產(chǎn)品均實現(xiàn)核心技術(shù)突破并全面開源。
DeepSeek-V3.2以 “平衡推理能力與落地效率” 為核心,推理性能達到GPT-5水平,略低于Gemini-3.0-Pro,同時通過優(yōu)化輸出長度大幅降低用戶等待時間與計算開銷,其獨創(chuàng)的DSA(DeepSeek Sparse Attention)稀疏注意力機制,將長文本處理的計算復(fù)雜度從O(L2) 降至O(L?k),在128k序列長度下,推理成本較上一代降低數(shù)倍。


