文|IT時報 賈天榮
編輯|錢立富 孫妍
上周,深度求索(DeepSeek)正式推出DeepSeek-V3.1大語言模型,并宣布自9月6日起調整API定價并取消夜間優(yōu)惠。根據(jù)最新定價策略,輸入部分在緩存命中時為0.5元/百萬tokens,緩存未命中為4元/百萬tokens;輸出部分定價為12元/百萬tokens。相比之下,此前V3版本的輸入價格為0.5元/百萬tokens(緩存命中)和2元/百萬tokens(未命中),輸出價格為8元/百萬tokens,且在0點30分至8點30分的夜間時段還可享受五折優(yōu)惠。
值得關注的是,根據(jù)官方說明,V3.1采用的UE8M0 FP8精度是針對下一代國產(chǎn)芯片設計的,這可能意味著DeepSeek在硬件適配方面投入了更多資源,而這些成本最終體現(xiàn)在API價格上。
《IT時報》注意到,今年越來越多AI大模型企業(yè)不再繼續(xù)降價,而是開始上調價格。國內多家大模型的優(yōu)惠期將在9月結束,不少廠商的新一代產(chǎn)品定價已顯著高于前代。
當以“性價比”著稱的國產(chǎn)大模型,從單純的價格競爭轉向價值競爭,背后是成本壓力的集中爆發(fā),還是意味著價格戰(zhàn)告一段落,行業(yè)正步入真正的“深水區(qū)”?
漲價后 DeepSeek仍具價格優(yōu)勢
相比DeepSeek-V3發(fā)布之初的優(yōu)惠價格,DeepSeek-V3.1輸入輸出價格上漲了數(shù)倍。盡管如此,DeepSeek-V3的價格仍遠低于目前最頂尖的閉源大模型,如GPT-5和Claude Opus 4.1。
記者注意到,GPT-5的輸入價格為1.25美元(約8.9元人民幣)/百萬tokens,輸出價格為10美元/百萬tokens。
Google的Gemini 2.5 Pro基礎定價與GPT-5一致:輸入價格為1.25美元/百萬tokens,輸出為10美元/百萬tokens。然而,在處理超過20萬tokens的長文本時,其價格會翻倍——輸入價格提升至2.5美元,輸出價格提升至15美元。
在眾多大模型中,Anthropic的Claude Opus 4.1定價甚高:輸入價格為15美元/百萬tokens,輸出更是高達75美元。
即便與“中檔”模型相比,DeepSeek-V3.1仍具備一定的價格優(yōu)勢。例如:Claude Sonnet 4的輸入價格為6美元/百萬tokens、輸出為15美元;GPT - 5-mini的輸入價格為0.25美元,輸出為2美元。
多家廠商開始漲價
值得注意的是,這并非DeepSeek首次調整API價格。
2025年2月9日,DeepSeek-V3結束了發(fā)布初期的優(yōu)惠政策。當時,其每百萬tokens輸入價格(緩存命中/未命中)分別為0.1元和1元,輸出價格為2元。優(yōu)惠取消后,價格全面上調:輸入價格調整為0.5元(命中)和2元(未命中),輸出價格升至8元。
回顧過去一年,大模型市場價格幾經(jīng)起伏。去年7月,《IT時報》曾報道,大模型廠商掀起空前降價潮:字節(jié)跳動率先出手,BAT等企業(yè)緊隨其后,紛紛將百萬tokens價格壓至1元,甚至打出“免費、全面免費、永久免費”的口號,力度之大堪稱“炸場”。
當時,百度智能云市場部相關負責人在接受《IT時報》采訪時表示:“價格戰(zhàn)至少持續(xù)一年。三類企業(yè)可能被淘汰:套殼類企業(yè)、云基礎設施薄弱的企業(yè),以及缺乏數(shù)據(jù)飛輪能力的廠商。真正能存活下來的企業(yè),將占據(jù)市場份額并實現(xiàn)盈利。待市場格局趨于成熟和穩(wěn)定,大模型才能真正進入客戶核心業(yè)務流,即所謂的‘深水區(qū)’?!?/p>
同樣在那一輪“價格戰(zhàn)”期間,一家AI智能體公司負責人也向《IT時報》表示:“大模型的定價已無法覆蓋成本,但廠商仍選擇降價,核心目的是收集數(shù)據(jù)?!彼e例稱,GPT-4o采取“對公眾免費、對開發(fā)者半價”的策略,以此獲取大量多輪對話等交互數(shù)據(jù),這些動態(tài)數(shù)據(jù)比靜態(tài)數(shù)據(jù)更能快速提升模型能力。國產(chǎn)大模型同樣處于這一“燒錢換數(shù)據(jù)”的階段。
進入2025年,市場出現(xiàn)轉折。越來越多廠商選擇停止降價,甚至開始漲價。記者注意到,國內多家大模型的優(yōu)惠期將在今年9月結束,不少廠商的新一代產(chǎn)品定價已顯著高于前代。
以“大模型六小龍”為例,智譜、月之暗面、MiniMax、階躍星辰等企業(yè)近期發(fā)布的產(chǎn)品價格均有所上漲。
智譜“全系模型享受五折優(yōu)惠”活動截止日期為2025年8月31日。以其面向智能體打造的旗艦GLM-4.5系列為例,優(yōu)惠結束后,最高檔產(chǎn)品GLM-4.5-X的輸入價格將達16元/百萬tokens,輸出價格為64元。相比之下,其上一代旗艦GLM-4-Plus發(fā)售之初定價為50元/百萬tokens,而今年4月曾一度降至5元/百萬tokens。
月之暗面于8月1日推出Kimi K2高速版(Kimi-K2-turbo-preview),其參數(shù)與Kimi-K2一致,但輸出速度從每秒10 tokens提升至40 tokens。目前,該模型處于五折優(yōu)惠期,9月1日后恢復原價,屆時輸入價格(緩存命中)為4元/百萬tokens、未命中為16元,輸出價格為64元。
MiniMax在2024年8月將旗艦模型abab-6.5s大幅降價至1元/百萬tokens(輸入輸出同價)。今年1月,其發(fā)布新一代文本生成模型MiniMax-Text-01,定價為輸入1元/百萬tokens,輸出8元/百萬tokens。6月上線的推理模型MiniMax-M1采用階梯定價,最高檔為輸入2.4元/百萬tokens、輸出24元/百萬tokens。
階躍星辰的情況也類似。今年4月發(fā)布的Step-R1-V-Mini多模態(tài)推理模型輸出價格為8元/百萬tokens,而7月推出的新一代模型Step 3改為階梯定價,低檔位價格略有下降,但最高檔(4k上下文)輸出價格升至10元/百萬tokens。
飛速發(fā)展難掩成本壓力
從去年的“價格戰(zhàn)”到如今的“漲價潮”,大模型行業(yè)正經(jīng)歷重要轉折。一方面,市場格局趨于穩(wěn)定,大模型企業(yè)進入“深水區(qū)”競爭;另一方面,運營成本壓力日益凸顯。
傳神語聯(lián)創(chuàng)始人何恩培在接受《IT時報》記者采訪時直言,大模型漲價是“必然的”。“完全免費的模式難以長期持續(xù)?!彼忉?,互聯(lián)網(wǎng)時代的主要成本集中在帶寬,而大模型的運行不僅依賴數(shù)據(jù)流量,還需要龐大算力和算法優(yōu)化,這些都會帶來高昂的開支。相比傳統(tǒng)互聯(lián)網(wǎng)服務,大模型的運營成本顯然更高,因此“免費階段注定短暫,漲價不可避免”。
過去一年大模型廠商在算力、數(shù)據(jù)和人才上的投入推動了技術快速迭代,然而與之形成鮮明反差的是,盈利難題仍未解決,即便是行業(yè)龍頭企業(yè)也尚未摸索出長期可行的商業(yè)路徑。
當?shù)貢r間8月20日,OpenAI首席財務官Sarah Friar表示,OpenAI在7月首次實現(xiàn)10億美元的單月營收,但公司仍面臨人工智能算力短缺的壓力。
此前有消息稱,OpenAI預計今年營收將增長3倍,達到127億美元。收入增長的同時,算力成本巨大。OpenAI CEO山姆·奧爾特曼(Sam Altman)表示,公司未來將投入上萬億美元建設數(shù)據(jù)中心。如何平攤這些成本、吸引更多付費用戶,成為OpenAI面臨的挑戰(zhàn)。
何恩培進一步指出,如果大模型長期依賴免費或低價策略,可能對市場生態(tài)造成一定影響。他認為,從免費到收費、從低價到漲價的轉變,可能引發(fā)市場認知混亂,增加企業(yè)的市場教育成本。
對于API漲價是否會削弱客戶需求,何恩培認為差異主要存在于B端和C端:B端客戶更關注綜合成本,尤其重視定制化、安全性和穩(wěn)定性;而C端用戶往往忽視“免費”背后的潛在成本?!霸贐端,所謂的‘免費’并不真正免費,客戶最終仍需為定制化服務和開發(fā)付費?!彼硎?。
不過,何恩培也強調,隨著技術進步和算力價格逐漸下降,大模型長期成本壓力有望緩解。但這并不意味著價格會立刻下調,其變化仍取決于市場需求和競爭環(huán)境?!按竽P偷纳虡I(yè)化仍處于初期,行業(yè)面臨諸多挑戰(zhàn)。未來能否找到收費模式與技術成本之間的平衡,將成為發(fā)展的關鍵?!?/p>
排版/ 季嘉穎

