四虎AV成人在线观看|免费免费特黄的欧美大片|人妻丝袜中文字幕一区三区|性爱一级二级三级|日本黄色视频在线观看免费|亚洲午夜天堂超碰大香蕉中出|国产日韩三级黄色AV一区二区三区|a片网站在线观看视频|人人AV播放日韩操在线|国产伦清品一区二区三区

正在閱讀:

三個(gè)人、一篇論文,估值850億

掃一掃下載界面新聞APP

三個(gè)人、一篇論文,估值850億

一個(gè)“沒有產(chǎn)品”的超級(jí)獨(dú)角獸。

文|融中財(cái)經(jīng)

AI界又出現(xiàn)了一個(gè)超級(jí)獨(dú)角獸。

AI領(lǐng)域從不缺乏顛覆性事件,卻極少有一家公司能像Thinking Machines Lab 這樣,在成立僅七個(gè)月、尚未推出正式產(chǎn)品、甚至沒有實(shí)際用戶的情況下,就以120億美元(折合人民幣850億元)的估值驚艷全球行業(yè)。

這家由前OpenAI首席技術(shù)官(CTO)Mira Murati牽頭創(chuàng)立的人工智能研究公司,憑借三十余人的“豪華團(tuán)隊(duì)”,其中還包括OpenAI前安全研究副總裁、北大女學(xué)霸翁荔,不僅順利完成20億美元種子輪融資,更吸引了AMD、英偉達(dá)等行業(yè)巨頭爭(zhēng)相注資,一躍成為OpenAI、Anthropic和Google DeepMind等頭部企業(yè)的潛在勁敵。

不同于傳統(tǒng)創(chuàng)業(yè)公司“產(chǎn)品先行”的路徑,Thinking Machines Lab從誕生之初就自帶“顛覆屬性”。其核心團(tuán)隊(duì)幾乎全員來自O(shè)penAI,涵蓋了AI產(chǎn)品落地、核心技術(shù)研發(fā)等關(guān)鍵領(lǐng)域的頂尖人才,這種“頂配陣容”讓市場(chǎng)看到了復(fù)刻甚至超越OpenAI的可能性。

更值得關(guān)注的是,公司在無產(chǎn)品的情況下,選擇以技術(shù)研究成果為“名片”,通過發(fā)布研究博客和學(xué)術(shù)論文,向行業(yè)傳遞其在多模態(tài)基礎(chǔ)模型與下一代人機(jī)協(xié)作領(lǐng)域的布局,這種“技術(shù)驅(qū)動(dòng)”的打法,也為AI初創(chuàng)公司的發(fā)展提供了全新范本 。

一個(gè)“沒有產(chǎn)品”的獨(dú)角獸

成立七個(gè)月、沒有產(chǎn)品也沒有用戶的公司被大佬們爭(zhēng)先投資,估值120億美元(折合人民幣850億)。

Thinking Machines Lab就是這么一家神奇的公司。

Thinking Machines Lab由前OpenAI首席技術(shù)官M(fèi)ira Murati于2025年2月創(chuàng)立,是一家聚焦多模態(tài)基礎(chǔ)模型與下一代人機(jī)協(xié)作的人工智能研究公司;創(chuàng)立僅半年,便憑約三十人、三分之二出自O(shè)penAI的豪華團(tuán)隊(duì)完成由Andreessen Horowitz領(lǐng)投、英偉達(dá)與AMD跟投的20億美元種子輪,估值高達(dá)120億美元,并已與Google Cloud達(dá)成算力合作,計(jì)劃在未來幾個(gè)月內(nèi)發(fā)布包含開源組件的首款產(chǎn)品,以幫助研究人員和初創(chuàng)公司定制自己的AI模型,同時(shí)正大規(guī)模招攬具備AI產(chǎn)品經(jīng)驗(yàn)的人才,被視為OpenAI、Anthropic和Google DeepMind的有力挑戰(zhàn)者。

為什么一家甚至還“沒有產(chǎn)品”的公司能獲得這么高的期待?這離不開“人、卡、勢(shì)”的三重優(yōu)勢(shì)。

人的方面,Thinking Machines Lab可謂擁有頂級(jí)初創(chuàng)團(tuán)隊(duì)。創(chuàng)始人Mira Murati是前OpenAI CTO,曾經(jīng)一手把ChatGPT、DALL-E、GPT-4做成全球級(jí)產(chǎn)品;聯(lián)創(chuàng)Barret Zoph、John Schulman等人同樣是Transformer與RLHF路線的核心作者。

對(duì)投資機(jī)構(gòu)而言,這支30人左右的小分隊(duì)幾乎是一張“全明星期權(quán)”:只要他們未來24個(gè)月里放出任何一條新曲線,就能直接對(duì)標(biāo)OpenAI的1500億估值,850億只是提前折現(xiàn)。

卡的方面,大模型競(jìng)爭(zhēng)已變成GPU軍備賽。Thinking Machines Lab在官宣當(dāng)天就拿到英偉達(dá)、AMD的聯(lián)合注資,等于一次性鎖定幾萬張H100/H200的配額。在“得顯卡者得天下”的共識(shí)下,資本寧愿把估值一次性打滿,也不愿在卡更加稀缺的6個(gè)月后再去追高。

勢(shì)的方面,2024-2025年,AI估值模型從“收入P/S”迅速讓位于“生態(tài)席位費(fèi)”:全球能真正從頭訓(xùn)練GPT-4級(jí)稠密模型的團(tuán)隊(duì)不超過5家,新名單已經(jīng)關(guān)閉。Thinking Machines Lab是最后一個(gè)由“原OpenAI核心決策層”整體出走的標(biāo)的,一旦錯(cuò)過,下一個(gè)同等量級(jí)的敘事窗口可能3年后才出現(xiàn)。850億里有一半買的是“席位”,而不是產(chǎn)品。

再加上二級(jí)市場(chǎng)對(duì)AI的FOMO情緒外溢:只要公司放出“我們已能穩(wěn)定訓(xùn)練100B以上多模態(tài)模型”的技術(shù)博客,哪怕沒有對(duì)外API,二級(jí)市場(chǎng)就會(huì)用OpenAI 1500億、Anthropic 600億的錨直接做線性插值,把850億“合理化”。因此,850億并不是傳統(tǒng)意義上的“收入估值”,而是“敘事+算力+人才”三位一體的看漲期權(quán)定價(jià);真到下一輪產(chǎn)品落地,如果模型性能或商業(yè)化不及預(yù)期,估值同樣可能迅速回調(diào)。

在Thinking Machines Lab背后的投資人中,英偉達(dá)和AMD備受關(guān)注。

英偉達(dá)和AMD投資Thinking Machines Lab,表面看是“投人”,骨子里是“買入口、鎖需求、搶話語權(quán)”。把高端GPU直接塞進(jìn)下一代“殺手級(jí)”模型,訓(xùn)練GPT-4.5級(jí)以上的多模態(tài)稠密模型,單集群就要幾萬張H100/H200,誰先搶到卡,誰就擁有下一個(gè)“爆款”入口。

英偉達(dá)和AMD把資本換成股權(quán),等于把“賣卡”前置成“占股+綁定采購(gòu)”,一次性鎖定未來可能高達(dá)3-4萬顆高端GPU的確定需求,避免被“自研芯片”計(jì)劃截胡。

用“客戶即股東”模式抬高競(jìng)品拿卡門檻,英偉達(dá)和AMD通過入股Thinking Machines Lab,把稀缺卡優(yōu)先供給“自己人”,變相讓競(jìng)爭(zhēng)對(duì)手排隊(duì)更久,從而延緩別家模型迭代節(jié)奏,鞏固自身生態(tài)節(jié)奏話語權(quán)。

一篇論文

前幾天,Thinking Machines Lab發(fā)表了一篇論文,這也是少見的論文比產(chǎn)品先行的創(chuàng)業(yè)公司。

Thinking Machines開辟了研究博客專欄「Connectionism」(聯(lián)結(jié)主義),發(fā)表了第一篇博客文章“Defeating Nondeterminism in LLM Inference”(擊敗LLM推理中的非確定性)。

文中提到,盡管將溫度參數(shù)設(shè)為0(即采用貪婪采樣),LLM的輸出仍然可能出現(xiàn)不一致。這種現(xiàn)象在實(shí)際應(yīng)用中普遍存在,即使在相同的輸入和模型配置下,多次運(yùn)行得到的結(jié)果也可能不同。

對(duì)此,一種流行的解釋是,這種現(xiàn)象是由于浮點(diǎn)數(shù)的非結(jié)合性(即浮點(diǎn)加法不滿足結(jié)合律)和GPU并行計(jì)算中的原子操作競(jìng)爭(zhēng)條件共同導(dǎo)致的。論文將這一觀點(diǎn)稱為“并發(fā)+浮點(diǎn)數(shù)”假說。

論文深入研究了LLM推理過程中使用的GPU內(nèi)核,發(fā)現(xiàn)雖然浮點(diǎn)數(shù)的非結(jié)合性是導(dǎo)致數(shù)值差異的根本原因,但并發(fā)執(zhí)行中的原子操作并非LLM推理非確定性的主要來源。提出“批大小變化”理論:作者指出,LLM推理中的非確定性主要源于服務(wù)器負(fù)載的變化,這會(huì)導(dǎo)致每次推理時(shí)的批大小(batch size)不同。而現(xiàn)有的GPU內(nèi)核在設(shè)計(jì)上缺乏“批不變性”(batch invariance),即計(jì)算結(jié)果會(huì)隨著批大小的變化而變化。

通過實(shí)驗(yàn),論文展示了即使運(yùn)行相同的矩陣乘法,當(dāng)批大小不同時(shí),得到的結(jié)果也可能存在顯著差異。這表明,LLM推理系統(tǒng)在處理不同負(fù)載時(shí),由于缺乏批不變性,會(huì)導(dǎo)致輸出結(jié)果的不一致。作者提出,要解決非確定性問題,需要確保LLM推理中涉及的關(guān)鍵計(jì)算內(nèi)核(如RMSNorm、矩陣乘法和注意力機(jī)制)具備批不變性。具體來說,要保證無論批大小如何變化,每個(gè)樣本的歸約(reduction)計(jì)算順序都保持一致。

簡(jiǎn)單來說,文章研究的是如何提升模型輸出的穩(wěn)定性和可預(yù)測(cè)性。

這一點(diǎn)對(duì)用戶來說至關(guān)重要,因?yàn)檫@直接關(guān)系到用戶對(duì)AI系統(tǒng)的信任、開發(fā)者對(duì)問題的調(diào)試能力、系統(tǒng)的公平性與合規(guī)性、強(qiáng)化學(xué)習(xí)中的訓(xùn)練一致性、用戶體驗(yàn)的穩(wěn)定性以及科學(xué)研究的可復(fù)現(xiàn)性。

如果同一個(gè)問題每次詢問AI都得到不同的答案,用戶會(huì)質(zhì)疑模型的可靠性,尤其是在法律、醫(yī)療、金融、教育等高風(fēng)險(xiǎn)領(lǐng)域,輸出的一致性直接影響用戶對(duì)系統(tǒng)的信任。開發(fā)者也需要可復(fù)現(xiàn)的模型輸出,以便穩(wěn)定地復(fù)現(xiàn)bug并進(jìn)行修復(fù),這是軟件測(cè)試、回歸測(cè)試和模型評(píng)估的基礎(chǔ)。

此外,如果模型對(duì)相同輸入給出不同輸出,可能意味著某些群體或輸入被系統(tǒng)性區(qū)別對(duì)待,這在審計(jì)、合規(guī)和公平性評(píng)估中是不可接受的,因?yàn)楸仨毚_保模型行為一致才能判斷是否公平。在強(qiáng)化學(xué)習(xí)中,訓(xùn)練時(shí)使用的采樣策略與推理時(shí)必須保持一致,否則會(huì)導(dǎo)致策略漂移,使模型表現(xiàn)下降,非確定性還會(huì)讓“on-policy RL”變成“off-policy RL”,從而破壞訓(xùn)練目標(biāo)。

最重要的是,用戶也期望AI產(chǎn)品像傳統(tǒng)軟件一樣穩(wěn)定,如果今天問“如何報(bào)稅”得到一個(gè)答案,明天又變了,用戶會(huì)感到困惑甚至憤怒,對(duì)企業(yè)來說,輸出一致性是服務(wù)質(zhì)量的一部分,直接影響品牌聲譽(yù)。科學(xué)研究同樣需要可復(fù)現(xiàn)的實(shí)驗(yàn)結(jié)果來比較不同模型或算法的優(yōu)劣,如果模型輸出每次都不同,就無法判斷是模型改進(jìn)帶來的提升還是隨機(jī)波動(dòng)。因此,可預(yù)測(cè)性和可重復(fù)性不是技術(shù)細(xì)節(jié),而是AI系統(tǒng)能否被人類信任、部署和規(guī)模化使用的底線要求,就像一臺(tái)每次按鍵都打出不同字母的鍵盤無法被信任或改進(jìn)一樣,不可復(fù)現(xiàn)的AI也無法被真正應(yīng)用。

AI大模型的下一章

Thinking Machines Lab的出圈,似乎也給AI大模型初創(chuàng)公司一些新的啟示。

在追求模型性能的同時(shí),必須高度重視輸出的可預(yù)測(cè)性和可重復(fù)性,這是贏得用戶信任、確保系統(tǒng)可靠性的關(guān)鍵,尤其在醫(yī)療、金融等高風(fēng)險(xiǎn)領(lǐng)域,一致性直接關(guān)系到用戶是否敢用、愿用。

其次,技術(shù)透明和深入剖析問題根源至關(guān)重要,Thinking Machines Lab通過揭示LLM非確定性源于批大小變化而非浮點(diǎn)并發(fā),表明AI公司應(yīng)敢于挑戰(zhàn)行業(yè)常識(shí),用扎實(shí)研究撥開迷霧,這種“技術(shù)誠(chéng)實(shí)”本身就是品牌力。

工程優(yōu)化與學(xué)術(shù)研究需緊密結(jié)合,AI公司不能僅停留在算法層面,而要下沉到GPU內(nèi)核、數(shù)值計(jì)算順序等底層細(xì)節(jié),通過批不變性內(nèi)核、固定分塊策略等工程手段,將理論確定性真正落地為產(chǎn)品確定性。

除此之外,開發(fā)者體驗(yàn)是生態(tài)護(hù)城河,提供可復(fù)現(xiàn)的推理結(jié)果、開源批不變算子庫、支持確定性模式,能極大降低開發(fā)者調(diào)試和部署成本,吸引社區(qū)共建,形成“越用越穩(wěn)”的飛輪。

確定性推理為AI高級(jí)應(yīng)用鋪平道路,強(qiáng)化學(xué)習(xí)、在線評(píng)估、合規(guī)審計(jì)、模型對(duì)比等場(chǎng)景都要求訓(xùn)練與推理零偏差,AI公司若率先解決非確定性,就能在RLHF、法律審計(jì)、金融風(fēng)控等高價(jià)值市場(chǎng)占據(jù)先機(jī)。

Thinking Machines Lab以小團(tuán)隊(duì)切入“大模型基礎(chǔ)設(shè)施痛點(diǎn)”并快速引發(fā)關(guān)注,提示AI公司不必卷參數(shù)、卷規(guī)模,而是可以聚焦“別人忽視的確定性縫隙”,用極致工程創(chuàng)新打出差異化,告訴行業(yè):性能不是唯一指標(biāo),穩(wěn)定、可信、可復(fù)現(xiàn),才是AI大規(guī)模商用的真正門票。

縱觀AI大模型行業(yè)的發(fā)展,也開啟了下一個(gè)時(shí)。模型架構(gòu)將更加注重效率與可解釋性,不再單純追求參數(shù)規(guī)模,而是探索如混合專家模型、稀疏激活、線性注意力等機(jī)制,在降低計(jì)算成本的同時(shí)維持性能,同時(shí)提升模型決策過程的可解釋性以符合監(jiān)管要求。

"確定性AI"將成為商業(yè)化分水嶺,隨著Thinking Machines Lab揭示非確定性根源,行業(yè)將加速推進(jìn)批不變性內(nèi)核、數(shù)值穩(wěn)定算法及標(biāo)準(zhǔn)化測(cè)試協(xié)議,確保醫(yī)療、金融等關(guān)鍵場(chǎng)景的輸出可復(fù)現(xiàn),可能催生專門的"可信AI"認(rèn)證體系。

訓(xùn)練推理一體化重構(gòu),邊緣-云協(xié)同的分布式訓(xùn)練框架將成熟,支持千億級(jí)模型在消費(fèi)級(jí)硬件上微調(diào),配合動(dòng)態(tài)批處理、內(nèi)存壓縮技術(shù)實(shí)現(xiàn)"本地私有化部署+云端彈性擴(kuò)展"的混合模式。第四,多模態(tài)融合進(jìn)入2.0階段,文本、視覺、音頻、傳感器數(shù)據(jù)將在統(tǒng)一token空間中進(jìn)行原生融合,出現(xiàn)專為機(jī)器人、車載終端設(shè)計(jì)的"物理世界大模型",推動(dòng)AI從數(shù)字交互向?qū)嶓w操作進(jìn)化。

未來,人機(jī)協(xié)作范式轉(zhuǎn)變,模型將具備實(shí)時(shí)置信度評(píng)估能力,在不確定時(shí)主動(dòng)調(diào)用工具或請(qǐng)求人類介入,推動(dòng)"AI-人類混合決策鏈"成為企業(yè)標(biāo)配工作流程。能源效率成為核心指標(biāo),行業(yè)可能建立"每token能耗"評(píng)級(jí)制度,驅(qū)動(dòng)液冷服務(wù)器、模型壓縮技術(shù)普及,預(yù)計(jì)2027年主流模型推理能耗將比2024年降低一個(gè)數(shù)量級(jí)。

這些趨勢(shì)共同指向一個(gè)未來:AI大模型將從"暴力計(jì)算"轉(zhuǎn)向"精密工程",在可控、可信、可持續(xù)的基礎(chǔ)上,真正成為社會(huì)關(guān)鍵基礎(chǔ)設(shè)施。

 
本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。

OpenAI

  • AI早報(bào) | 黃仁勛否認(rèn)對(duì)OpenAI不滿,透露將巨額投資;騰訊元寶登頂蘋果商店免費(fèi)榜
  • 科技早報(bào) | 黃仁勛否認(rèn)對(duì)OpenAI不滿,透露將巨額投資;蘋果人工智能團(tuán)隊(duì)再現(xiàn)離職潮

評(píng)論

暫無評(píng)論哦,快來評(píng)價(jià)一下吧!

下載界面新聞

微信公眾號(hào)

微博

三個(gè)人、一篇論文,估值850億

一個(gè)“沒有產(chǎn)品”的超級(jí)獨(dú)角獸。

文|融中財(cái)經(jīng)

AI界又出現(xiàn)了一個(gè)超級(jí)獨(dú)角獸。

AI領(lǐng)域從不缺乏顛覆性事件,卻極少有一家公司能像Thinking Machines Lab 這樣,在成立僅七個(gè)月、尚未推出正式產(chǎn)品、甚至沒有實(shí)際用戶的情況下,就以120億美元(折合人民幣850億元)的估值驚艷全球行業(yè)。

這家由前OpenAI首席技術(shù)官(CTO)Mira Murati牽頭創(chuàng)立的人工智能研究公司,憑借三十余人的“豪華團(tuán)隊(duì)”,其中還包括OpenAI前安全研究副總裁、北大女學(xué)霸翁荔,不僅順利完成20億美元種子輪融資,更吸引了AMD、英偉達(dá)等行業(yè)巨頭爭(zhēng)相注資,一躍成為OpenAI、Anthropic和Google DeepMind等頭部企業(yè)的潛在勁敵。

不同于傳統(tǒng)創(chuàng)業(yè)公司“產(chǎn)品先行”的路徑,Thinking Machines Lab從誕生之初就自帶“顛覆屬性”。其核心團(tuán)隊(duì)幾乎全員來自O(shè)penAI,涵蓋了AI產(chǎn)品落地、核心技術(shù)研發(fā)等關(guān)鍵領(lǐng)域的頂尖人才,這種“頂配陣容”讓市場(chǎng)看到了復(fù)刻甚至超越OpenAI的可能性。

更值得關(guān)注的是,公司在無產(chǎn)品的情況下,選擇以技術(shù)研究成果為“名片”,通過發(fā)布研究博客和學(xué)術(shù)論文,向行業(yè)傳遞其在多模態(tài)基礎(chǔ)模型與下一代人機(jī)協(xié)作領(lǐng)域的布局,這種“技術(shù)驅(qū)動(dòng)”的打法,也為AI初創(chuàng)公司的發(fā)展提供了全新范本 。

一個(gè)“沒有產(chǎn)品”的獨(dú)角獸

成立七個(gè)月、沒有產(chǎn)品也沒有用戶的公司被大佬們爭(zhēng)先投資,估值120億美元(折合人民幣850億)。

Thinking Machines Lab就是這么一家神奇的公司。

Thinking Machines Lab由前OpenAI首席技術(shù)官M(fèi)ira Murati于2025年2月創(chuàng)立,是一家聚焦多模態(tài)基礎(chǔ)模型與下一代人機(jī)協(xié)作的人工智能研究公司;創(chuàng)立僅半年,便憑約三十人、三分之二出自O(shè)penAI的豪華團(tuán)隊(duì)完成由Andreessen Horowitz領(lǐng)投、英偉達(dá)與AMD跟投的20億美元種子輪,估值高達(dá)120億美元,并已與Google Cloud達(dá)成算力合作,計(jì)劃在未來幾個(gè)月內(nèi)發(fā)布包含開源組件的首款產(chǎn)品,以幫助研究人員和初創(chuàng)公司定制自己的AI模型,同時(shí)正大規(guī)模招攬具備AI產(chǎn)品經(jīng)驗(yàn)的人才,被視為OpenAI、Anthropic和Google DeepMind的有力挑戰(zhàn)者。

為什么一家甚至還“沒有產(chǎn)品”的公司能獲得這么高的期待?這離不開“人、卡、勢(shì)”的三重優(yōu)勢(shì)。

人的方面,Thinking Machines Lab可謂擁有頂級(jí)初創(chuàng)團(tuán)隊(duì)。創(chuàng)始人Mira Murati是前OpenAI CTO,曾經(jīng)一手把ChatGPT、DALL-E、GPT-4做成全球級(jí)產(chǎn)品;聯(lián)創(chuàng)Barret Zoph、John Schulman等人同樣是Transformer與RLHF路線的核心作者。

對(duì)投資機(jī)構(gòu)而言,這支30人左右的小分隊(duì)幾乎是一張“全明星期權(quán)”:只要他們未來24個(gè)月里放出任何一條新曲線,就能直接對(duì)標(biāo)OpenAI的1500億估值,850億只是提前折現(xiàn)。

卡的方面,大模型競(jìng)爭(zhēng)已變成GPU軍備賽。Thinking Machines Lab在官宣當(dāng)天就拿到英偉達(dá)、AMD的聯(lián)合注資,等于一次性鎖定幾萬張H100/H200的配額。在“得顯卡者得天下”的共識(shí)下,資本寧愿把估值一次性打滿,也不愿在卡更加稀缺的6個(gè)月后再去追高。

勢(shì)的方面,2024-2025年,AI估值模型從“收入P/S”迅速讓位于“生態(tài)席位費(fèi)”:全球能真正從頭訓(xùn)練GPT-4級(jí)稠密模型的團(tuán)隊(duì)不超過5家,新名單已經(jīng)關(guān)閉。Thinking Machines Lab是最后一個(gè)由“原OpenAI核心決策層”整體出走的標(biāo)的,一旦錯(cuò)過,下一個(gè)同等量級(jí)的敘事窗口可能3年后才出現(xiàn)。850億里有一半買的是“席位”,而不是產(chǎn)品。

再加上二級(jí)市場(chǎng)對(duì)AI的FOMO情緒外溢:只要公司放出“我們已能穩(wěn)定訓(xùn)練100B以上多模態(tài)模型”的技術(shù)博客,哪怕沒有對(duì)外API,二級(jí)市場(chǎng)就會(huì)用OpenAI 1500億、Anthropic 600億的錨直接做線性插值,把850億“合理化”。因此,850億并不是傳統(tǒng)意義上的“收入估值”,而是“敘事+算力+人才”三位一體的看漲期權(quán)定價(jià);真到下一輪產(chǎn)品落地,如果模型性能或商業(yè)化不及預(yù)期,估值同樣可能迅速回調(diào)。

在Thinking Machines Lab背后的投資人中,英偉達(dá)和AMD備受關(guān)注。

英偉達(dá)和AMD投資Thinking Machines Lab,表面看是“投人”,骨子里是“買入口、鎖需求、搶話語權(quán)”。把高端GPU直接塞進(jìn)下一代“殺手級(jí)”模型,訓(xùn)練GPT-4.5級(jí)以上的多模態(tài)稠密模型,單集群就要幾萬張H100/H200,誰先搶到卡,誰就擁有下一個(gè)“爆款”入口。

英偉達(dá)和AMD把資本換成股權(quán),等于把“賣卡”前置成“占股+綁定采購(gòu)”,一次性鎖定未來可能高達(dá)3-4萬顆高端GPU的確定需求,避免被“自研芯片”計(jì)劃截胡。

用“客戶即股東”模式抬高競(jìng)品拿卡門檻,英偉達(dá)和AMD通過入股Thinking Machines Lab,把稀缺卡優(yōu)先供給“自己人”,變相讓競(jìng)爭(zhēng)對(duì)手排隊(duì)更久,從而延緩別家模型迭代節(jié)奏,鞏固自身生態(tài)節(jié)奏話語權(quán)。

一篇論文

前幾天,Thinking Machines Lab發(fā)表了一篇論文,這也是少見的論文比產(chǎn)品先行的創(chuàng)業(yè)公司。

Thinking Machines開辟了研究博客專欄「Connectionism」(聯(lián)結(jié)主義),發(fā)表了第一篇博客文章“Defeating Nondeterminism in LLM Inference”(擊敗LLM推理中的非確定性)。

文中提到,盡管將溫度參數(shù)設(shè)為0(即采用貪婪采樣),LLM的輸出仍然可能出現(xiàn)不一致。這種現(xiàn)象在實(shí)際應(yīng)用中普遍存在,即使在相同的輸入和模型配置下,多次運(yùn)行得到的結(jié)果也可能不同。

對(duì)此,一種流行的解釋是,這種現(xiàn)象是由于浮點(diǎn)數(shù)的非結(jié)合性(即浮點(diǎn)加法不滿足結(jié)合律)和GPU并行計(jì)算中的原子操作競(jìng)爭(zhēng)條件共同導(dǎo)致的。論文將這一觀點(diǎn)稱為“并發(fā)+浮點(diǎn)數(shù)”假說。

論文深入研究了LLM推理過程中使用的GPU內(nèi)核,發(fā)現(xiàn)雖然浮點(diǎn)數(shù)的非結(jié)合性是導(dǎo)致數(shù)值差異的根本原因,但并發(fā)執(zhí)行中的原子操作并非LLM推理非確定性的主要來源。提出“批大小變化”理論:作者指出,LLM推理中的非確定性主要源于服務(wù)器負(fù)載的變化,這會(huì)導(dǎo)致每次推理時(shí)的批大?。╞atch size)不同。而現(xiàn)有的GPU內(nèi)核在設(shè)計(jì)上缺乏“批不變性”(batch invariance),即計(jì)算結(jié)果會(huì)隨著批大小的變化而變化。

通過實(shí)驗(yàn),論文展示了即使運(yùn)行相同的矩陣乘法,當(dāng)批大小不同時(shí),得到的結(jié)果也可能存在顯著差異。這表明,LLM推理系統(tǒng)在處理不同負(fù)載時(shí),由于缺乏批不變性,會(huì)導(dǎo)致輸出結(jié)果的不一致。作者提出,要解決非確定性問題,需要確保LLM推理中涉及的關(guān)鍵計(jì)算內(nèi)核(如RMSNorm、矩陣乘法和注意力機(jī)制)具備批不變性。具體來說,要保證無論批大小如何變化,每個(gè)樣本的歸約(reduction)計(jì)算順序都保持一致。

簡(jiǎn)單來說,文章研究的是如何提升模型輸出的穩(wěn)定性和可預(yù)測(cè)性。

這一點(diǎn)對(duì)用戶來說至關(guān)重要,因?yàn)檫@直接關(guān)系到用戶對(duì)AI系統(tǒng)的信任、開發(fā)者對(duì)問題的調(diào)試能力、系統(tǒng)的公平性與合規(guī)性、強(qiáng)化學(xué)習(xí)中的訓(xùn)練一致性、用戶體驗(yàn)的穩(wěn)定性以及科學(xué)研究的可復(fù)現(xiàn)性。

如果同一個(gè)問題每次詢問AI都得到不同的答案,用戶會(huì)質(zhì)疑模型的可靠性,尤其是在法律、醫(yī)療、金融、教育等高風(fēng)險(xiǎn)領(lǐng)域,輸出的一致性直接影響用戶對(duì)系統(tǒng)的信任。開發(fā)者也需要可復(fù)現(xiàn)的模型輸出,以便穩(wěn)定地復(fù)現(xiàn)bug并進(jìn)行修復(fù),這是軟件測(cè)試、回歸測(cè)試和模型評(píng)估的基礎(chǔ)。

此外,如果模型對(duì)相同輸入給出不同輸出,可能意味著某些群體或輸入被系統(tǒng)性區(qū)別對(duì)待,這在審計(jì)、合規(guī)和公平性評(píng)估中是不可接受的,因?yàn)楸仨毚_保模型行為一致才能判斷是否公平。在強(qiáng)化學(xué)習(xí)中,訓(xùn)練時(shí)使用的采樣策略與推理時(shí)必須保持一致,否則會(huì)導(dǎo)致策略漂移,使模型表現(xiàn)下降,非確定性還會(huì)讓“on-policy RL”變成“off-policy RL”,從而破壞訓(xùn)練目標(biāo)。

最重要的是,用戶也期望AI產(chǎn)品像傳統(tǒng)軟件一樣穩(wěn)定,如果今天問“如何報(bào)稅”得到一個(gè)答案,明天又變了,用戶會(huì)感到困惑甚至憤怒,對(duì)企業(yè)來說,輸出一致性是服務(wù)質(zhì)量的一部分,直接影響品牌聲譽(yù)。科學(xué)研究同樣需要可復(fù)現(xiàn)的實(shí)驗(yàn)結(jié)果來比較不同模型或算法的優(yōu)劣,如果模型輸出每次都不同,就無法判斷是模型改進(jìn)帶來的提升還是隨機(jī)波動(dòng)。因此,可預(yù)測(cè)性和可重復(fù)性不是技術(shù)細(xì)節(jié),而是AI系統(tǒng)能否被人類信任、部署和規(guī)模化使用的底線要求,就像一臺(tái)每次按鍵都打出不同字母的鍵盤無法被信任或改進(jìn)一樣,不可復(fù)現(xiàn)的AI也無法被真正應(yīng)用。

AI大模型的下一章

Thinking Machines Lab的出圈,似乎也給AI大模型初創(chuàng)公司一些新的啟示。

在追求模型性能的同時(shí),必須高度重視輸出的可預(yù)測(cè)性和可重復(fù)性,這是贏得用戶信任、確保系統(tǒng)可靠性的關(guān)鍵,尤其在醫(yī)療、金融等高風(fēng)險(xiǎn)領(lǐng)域,一致性直接關(guān)系到用戶是否敢用、愿用。

其次,技術(shù)透明和深入剖析問題根源至關(guān)重要,Thinking Machines Lab通過揭示LLM非確定性源于批大小變化而非浮點(diǎn)并發(fā),表明AI公司應(yīng)敢于挑戰(zhàn)行業(yè)常識(shí),用扎實(shí)研究撥開迷霧,這種“技術(shù)誠(chéng)實(shí)”本身就是品牌力。

工程優(yōu)化與學(xué)術(shù)研究需緊密結(jié)合,AI公司不能僅停留在算法層面,而要下沉到GPU內(nèi)核、數(shù)值計(jì)算順序等底層細(xì)節(jié),通過批不變性內(nèi)核、固定分塊策略等工程手段,將理論確定性真正落地為產(chǎn)品確定性。

除此之外,開發(fā)者體驗(yàn)是生態(tài)護(hù)城河,提供可復(fù)現(xiàn)的推理結(jié)果、開源批不變算子庫、支持確定性模式,能極大降低開發(fā)者調(diào)試和部署成本,吸引社區(qū)共建,形成“越用越穩(wěn)”的飛輪。

確定性推理為AI高級(jí)應(yīng)用鋪平道路,強(qiáng)化學(xué)習(xí)、在線評(píng)估、合規(guī)審計(jì)、模型對(duì)比等場(chǎng)景都要求訓(xùn)練與推理零偏差,AI公司若率先解決非確定性,就能在RLHF、法律審計(jì)、金融風(fēng)控等高價(jià)值市場(chǎng)占據(jù)先機(jī)。

Thinking Machines Lab以小團(tuán)隊(duì)切入“大模型基礎(chǔ)設(shè)施痛點(diǎn)”并快速引發(fā)關(guān)注,提示AI公司不必卷參數(shù)、卷規(guī)模,而是可以聚焦“別人忽視的確定性縫隙”,用極致工程創(chuàng)新打出差異化,告訴行業(yè):性能不是唯一指標(biāo),穩(wěn)定、可信、可復(fù)現(xiàn),才是AI大規(guī)模商用的真正門票。

縱觀AI大模型行業(yè)的發(fā)展,也開啟了下一個(gè)時(shí)。模型架構(gòu)將更加注重效率與可解釋性,不再單純追求參數(shù)規(guī)模,而是探索如混合專家模型、稀疏激活、線性注意力等機(jī)制,在降低計(jì)算成本的同時(shí)維持性能,同時(shí)提升模型決策過程的可解釋性以符合監(jiān)管要求。

"確定性AI"將成為商業(yè)化分水嶺,隨著Thinking Machines Lab揭示非確定性根源,行業(yè)將加速推進(jìn)批不變性內(nèi)核、數(shù)值穩(wěn)定算法及標(biāo)準(zhǔn)化測(cè)試協(xié)議,確保醫(yī)療、金融等關(guān)鍵場(chǎng)景的輸出可復(fù)現(xiàn),可能催生專門的"可信AI"認(rèn)證體系。

訓(xùn)練推理一體化重構(gòu),邊緣-云協(xié)同的分布式訓(xùn)練框架將成熟,支持千億級(jí)模型在消費(fèi)級(jí)硬件上微調(diào),配合動(dòng)態(tài)批處理、內(nèi)存壓縮技術(shù)實(shí)現(xiàn)"本地私有化部署+云端彈性擴(kuò)展"的混合模式。第四,多模態(tài)融合進(jìn)入2.0階段,文本、視覺、音頻、傳感器數(shù)據(jù)將在統(tǒng)一token空間中進(jìn)行原生融合,出現(xiàn)專為機(jī)器人、車載終端設(shè)計(jì)的"物理世界大模型",推動(dòng)AI從數(shù)字交互向?qū)嶓w操作進(jìn)化。

未來,人機(jī)協(xié)作范式轉(zhuǎn)變,模型將具備實(shí)時(shí)置信度評(píng)估能力,在不確定時(shí)主動(dòng)調(diào)用工具或請(qǐng)求人類介入,推動(dòng)"AI-人類混合決策鏈"成為企業(yè)標(biāo)配工作流程。能源效率成為核心指標(biāo),行業(yè)可能建立"每token能耗"評(píng)級(jí)制度,驅(qū)動(dòng)液冷服務(wù)器、模型壓縮技術(shù)普及,預(yù)計(jì)2027年主流模型推理能耗將比2024年降低一個(gè)數(shù)量級(jí)。

這些趨勢(shì)共同指向一個(gè)未來:AI大模型將從"暴力計(jì)算"轉(zhuǎn)向"精密工程",在可控、可信、可持續(xù)的基礎(chǔ)上,真正成為社會(huì)關(guān)鍵基礎(chǔ)設(shè)施。

 
本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。