四虎AV成人在线观看|免费免费特黄的欧美大片|人妻丝袜中文字幕一区三区|性爱一级二级三级|日本黄色视频在线观看免费|亚洲午夜天堂超碰大香蕉中出|国产日韩三级黄色AV一区二区三区|a片网站在线观看视频|人人AV播放日韩操在线|国产伦清品一区二区三区

正在閱讀:

失衡的烏托邦:Meta的開(kāi)源AI路線是如何遭遇滑鐵盧的

掃一掃下載界面新聞APP

失衡的烏托邦:Meta的開(kāi)源AI路線是如何遭遇滑鐵盧的

Meta被裁高管親述內(nèi)幕。

文|硅谷101

2025年10月底,Meta AI部門(mén)宣布裁員600個(gè)職位,甚至核心部門(mén)的研究總監(jiān),同時(shí)掌管AI業(yè)務(wù)的高管紛紛離職、被邊緣化,就連圖靈獎(jiǎng)得主Yann LeCun也被認(rèn)為自身難保。

一方面扎克伯格在用上億美元的年薪挖AI人才,但同時(shí)又如此決絕的裁員,這樣割裂的行為背后是因?yàn)槭裁矗?/p>

于是我們采訪了Meta的前FAIR研究總監(jiān)AI科學(xué)家田淵棟、參與了Llama 3后訓(xùn)練的前Meta員工Gavin Wang、硅谷資深HR專家以及一些匿名人士,試圖還原一下Meta的Llama開(kāi)源路線到底發(fā)生了什么:

為什么Llama 3還讓眾人驚艷,而僅一年之后的Llama 4就如此拉胯?中間發(fā)生了什么?Meta的開(kāi)源路線從一開(kāi)始就注定是個(gè)錯(cuò)誤嗎?AI大模型激烈對(duì)戰(zhàn)的當(dāng)下,一個(gè)烏托邦式的AI研究實(shí)驗(yàn)室還能夠存在嗎?

01 FAIR與GenAI的誕生:Meta的AI十年布局與架構(gòu)搭建

首先來(lái)看看Meta對(duì)AI布局的整個(gè)公司架構(gòu)。

2013年年底,扎克伯格開(kāi)始搭建Meta的AI團(tuán)隊(duì)。當(dāng)時(shí),谷歌收購(gòu)了Geoffrey Hinton的DNN團(tuán)隊(duì),將Hinton招入麾下,同一時(shí)間,Meta將Yann Lecun請(qǐng)來(lái)坐鎮(zhèn)AI的發(fā)展。至此,圖靈獎(jiǎng)三巨頭的兩位開(kāi)始步入商業(yè)科技來(lái)主導(dǎo)AI研發(fā)。

在扎克伯格邀請(qǐng)Yann LeCun加入Meta的時(shí)候,后者提過(guò)三個(gè)條件:

1.不從紐約搬走;

2.不會(huì)辭去在紐約大學(xué)的工作;

3.必須開(kāi)展開(kāi)放的研究,公開(kāi)發(fā)布所做的所有工作,并將代碼開(kāi)源。

所以,一開(kāi)始Meta的路線就是開(kāi)源的。Yann LeCun進(jìn)入Meta之后,開(kāi)始著手前沿的AI研發(fā),組建了Fundamental AI Research實(shí)驗(yàn)室,也就是大名鼎鼎的FAIR實(shí)驗(yàn)室,主導(dǎo)人工智能的前沿研究。

田淵棟

前Meta基礎(chǔ)AI研究(FAIR)團(tuán)隊(duì)研究總監(jiān):

FAIR是負(fù)責(zé)前沿研究的,就是做一些現(xiàn)在目前看起來(lái)沒(méi)有特別大的應(yīng)用,但是新的想法、新的思路、新的算法、新的框架、新的模型架構(gòu)。這樣的探索之后可能會(huì)有一些大的突破,大概是這樣的一個(gè)邏輯。

但是對(duì)于Meta來(lái)說(shuō),最終還是要看到AI在自身產(chǎn)品上的進(jìn)展。于是和FAIR組平行設(shè)置了一個(gè)組叫“Generative AI”,簡(jiǎn)稱“GenAI”組。

這個(gè)組里面分別有不同的功能團(tuán)隊(duì),包括了Llama開(kāi)源模型的研發(fā),將AI能力運(yùn)用到產(chǎn)品上的Meta AI團(tuán)隊(duì),還有AI算力基建的數(shù)據(jù)中心團(tuán)隊(duì),其它的還有一些小部門(mén),比如說(shuō)Search(搜索),Enterprise(企業(yè)服務(wù)),Video-gen(文生視頻)模型等等。

GenAI和FAIR是平行關(guān)系,這像是一個(gè)天平,一邊是前沿科研,一邊是產(chǎn)品化。理想情況下,前沿研究能帶來(lái)更好的產(chǎn)品力,而產(chǎn)品賺錢(qián)了能讓管理層有更大的動(dòng)力撥款給FAIR去做研發(fā)。

田淵棟

前Meta基礎(chǔ)AI研究(FAIR)團(tuán)隊(duì)研究總監(jiān):

比如FAIR會(huì)提供一些很好的想法和工作給GenAI去用,讓GenAI把這些想法和工作放進(jìn)生產(chǎn),然后在下一代模型中使用出來(lái)。

很多人的初心就是說(shuō)想做一些不一樣的東西,或者是與眾不同的方向、工作。能不能真正地實(shí)現(xiàn)AGI(通用人工智能)?這其實(shí)是個(gè)比較大的問(wèn)題。

陳茜

硅谷101聯(lián)合創(chuàng)始人:

所以FAIR的目的是AGI,但是GenAI它的目的是怎么把AI放在Meta現(xiàn)有的產(chǎn)品中,讓AI發(fā)生效應(yīng)。

田淵棟

前Meta基礎(chǔ)AI研究(FAIR)團(tuán)隊(duì)研究總監(jiān):

對(duì),應(yīng)該說(shuō)主要一方面是Llama,Llama是一個(gè)很大的模型。還有就是怎么樣把AI比較好地用在一些具體的應(yīng)用上。

但是,讓這樣的天平始終保持平衡,是一個(gè)很理想化的烏托邦狀態(tài)。而這個(gè)烏托邦狀態(tài)的前提是,Meta的AI模型水平一直是要保持最領(lǐng)先的,或者說(shuō),至少是在開(kāi)源賽道最領(lǐng)先,且不落后閉源模型太多的。

陳茜

硅谷101聯(lián)合創(chuàng)始人:

你覺(jué)得在FAIR最快樂(lè)的一段時(shí)光是什么時(shí)候?

田淵棟

前Meta基礎(chǔ)AI研究(FAIR)團(tuán)隊(duì)研究總監(jiān):

我覺(jué)得從我入職FAIR之后一直到2022年,這段時(shí)間是很開(kāi)心的。因?yàn)榇笳Z(yǔ)言模型來(lái)了之后,整個(gè)生態(tài)或者說(shuō)研究者之間的關(guān)系發(fā)生了一些變化。因?yàn)榇笳Z(yǔ)言模型來(lái)了之后,算力成了很重要的一個(gè)因素。

因?yàn)樗懔κ怯邢薜?,所以就?huì)產(chǎn)生各種問(wèn)題、各種矛盾。大家都要訓(xùn)練一個(gè)很大的模型,如果是這樣的話,相互之間就開(kāi)始有一些問(wèn)題,比如說(shuō)如果我卡多了,你卡就少了。因?yàn)榭ú欢嗑蜎](méi)辦法訓(xùn)練出很好的模型,所以在2023年之后這段時(shí)間之內(nèi),狀態(tài)肯定不會(huì)像以前那么好。

而Meta的AI天平是如何失衡的呢?我們可以從Llama的四代發(fā)布中,看到一些端倪和痕跡。

02 “開(kāi)源之光”:Llama的昔日驕傲與滑鐵盧?

之所以Meta給自家大語(yǔ)言模型取名“Llama”,據(jù)說(shuō)是因?yàn)榭紤]到Large Language Model的縮寫(xiě)“LLM”不太好發(fā)音,所以就補(bǔ)上了元音字母?!癓lama”朗朗上口也便于記憶傳播。也正是這樣,大語(yǔ)言模型命名自此才和“羊駝”扯上了關(guān)系。

Chapter 2.1 Llama 1:開(kāi)源的“種子”

我們先來(lái)看看Llama 1,這也為Meta的大模型“開(kāi)源”路線奠定了基礎(chǔ)。

2023年2月24日,Meta發(fā)布Llama模型,主打“更小參數(shù)更好效果”(多規(guī)模:7B/13B/33B/65B),強(qiáng)調(diào)當(dāng)時(shí)的13B模型可以在多項(xiàng)基準(zhǔn)上超過(guò)175B參數(shù)的GPT-3。

而Llama在官宣之后的一周,權(quán)重在4chan上以種子形式被“泄露”,引發(fā)了AI社區(qū)對(duì)開(kāi)源模型的廣泛討論,甚至還引發(fā)國(guó)會(huì)參議員致信質(zhì)詢Meta。

雖然有不少質(zhì)疑的聲音,但業(yè)界對(duì)Llama的“意外泄露”出人意料的支持,而這也被視為“大模型開(kāi)源”的格局重塑,并且很快催生出了諸多的民間微調(diào)項(xiàng)目。

我們?cè)谶@里稍微解釋一下大模型的“開(kāi)源”定義。其實(shí)Meta也不是完全的開(kāi)源。Meta稱之為“開(kāi)放權(quán)重”(Open weights)。

在機(jī)器學(xué)習(xí)中,有三個(gè)部分:結(jié)構(gòu)(architecture),權(quán)重(weights)和代碼(code)。所謂“權(quán)重”,就是模型學(xué)習(xí)到的所有參數(shù)數(shù)值。模型訓(xùn)練完成后,所有參數(shù)會(huì)存成幾個(gè)巨大的二進(jìn)制文件。每個(gè)文件里保存著每一層神經(jīng)網(wǎng)絡(luò)的矩陣數(shù)值。而在推理時(shí),模型代碼會(huì)加載這些權(quán)重文件,用GPU進(jìn)行矩陣運(yùn)算生成文本。

所以“開(kāi)放權(quán)重”就意味著向公眾提供訓(xùn)練好的參數(shù)文件,外界可以本地加載、部署和微調(diào),但還不是完全的“開(kāi)源”,因?yàn)檎嬲拈_(kāi)源意味著公開(kāi)訓(xùn)練數(shù)據(jù)、代碼和許可等等。但Meta并沒(méi)有公開(kāi)這些信息,甚至之后的Llama2、3、4代都僅僅是開(kāi)放權(quán)重,只是在許可證的政策上有些松動(dòng)。

雖然Llama屬于“半開(kāi)源”,但比起OpenAI,Anthropic和谷歌完全閉源、只通過(guò)API接口來(lái)提供模型能力服務(wù)的公司來(lái)說(shuō),已經(jīng)算給開(kāi)源社區(qū)帶來(lái)非常旺盛的生命力了。

Chapter 2.2 Llama 2: 開(kāi)放“可商用”

2023年7月28日,Meta聯(lián)合微軟發(fā)布了大模型Llama 2,包含7B、13B和70B參數(shù)的三種參數(shù)變體。

新一代模型的“開(kāi)源”雖然也是“開(kāi)放權(quán)重”,但對(duì)比Llama 1的不可商用、只能申請(qǐng)研究用途而言,Llama 2是一個(gè)免費(fèi)可商用的版本,更放寬了許可證的權(quán)限,而Wired等雜志更是指出,Llama 2 讓“開(kāi)放路線”對(duì)抗封閉模型巨頭成為現(xiàn)實(shí)。

而我們看到,Llama 2很快在開(kāi)發(fā)者社區(qū)風(fēng)靡起來(lái),它的可得性顯著放大了生態(tài)和AI開(kāi)發(fā)。

之后,就到了2024年的Llama 3,這也是Llama系列最為輝煌的時(shí)刻。

Chapter 2.3 Llama 3系列: 逼近閉源陣營(yíng)

步入Llama3的時(shí)代,Meta已經(jīng)成為AI開(kāi)源社區(qū)的頂流存在。2024年的4月到9月,Meta連發(fā)三個(gè)版本的模型迭代。

2024年4月18日,Meta發(fā)布8B、70B兩個(gè)規(guī)格的Llama 3版本,稱同等規(guī)?!帮@著超越Llama 2”,并將其作為Meta AI助手的底座之一。

之后的7月23日,Meta推出405B、70B、8B三檔Llama 3.1模型,并宣稱405B是“全球最強(qiáng)的開(kāi)放可得基礎(chǔ)模型”之一;同時(shí)登陸AWS Bedrock、IBM watsonx等平臺(tái)。

僅兩個(gè)月之后的2024年9月25日,Meta推出Llama 3.2,主打小而全的多模態(tài),新增1B與3B輕量文本模型與1B與90B的視覺(jué)多模態(tài)模型,面向終端/邊緣場(chǎng)景;AWS等平臺(tái)同步接入,開(kāi)源框架平臺(tái)OLlama亦可本地運(yùn)行。

我們采訪到了Llama 3團(tuán)隊(duì)的Gavin Wang,他負(fù)責(zé)Llama 3的后訓(xùn)練工作,對(duì)我們表示當(dāng)時(shí)整個(gè)Meta,GenAI團(tuán)隊(duì)是在以“光速”前進(jìn),真的有種“AI一天,人間一年”的感覺(jué)。

Gavin Wang

前Meta AI工程師,從事Llama 3后訓(xùn)練:

當(dāng)時(shí)Llama3.1/3.2確實(shí)是有很多很好的進(jìn)展,比如多模態(tài)是在這個(gè)階段里面發(fā)布的,包括后面他們做Lightweight model(輕量化模型)1B/3B的。我覺(jué)得這時(shí)候產(chǎn)品化生態(tài)取得了很大進(jìn)展,很多的社群都有支持,包括我有朋友在Llama Stack團(tuán)隊(duì),他們就是專門(mén)支持整個(gè)Llama的生態(tài)在企業(yè)級(jí)或者說(shuō)小企業(yè)級(jí)的落地。

Llama 3的強(qiáng)勢(shì)出擊,特別是450B版本被認(rèn)為是在模型能力上對(duì)閉源陣營(yíng)的逼近,也被認(rèn)為將快速推動(dòng)AI應(yīng)用的落地。而對(duì)于Meta內(nèi)部員工來(lái)說(shuō),特別是在Llama組的AI工程師們,這是一件非常讓他們值得驕傲的項(xiàng)目。

Gavin Wang

前Meta AI工程師,從事Llama 3后訓(xùn)練:

當(dāng)時(shí)的敘事是說(shuō),Meta是大廠里面唯一一個(gè)剩下開(kāi)源的模型,而且還對(duì)整個(gè)開(kāi)源生態(tài)很有貢獻(xiàn)。當(dāng)時(shí)我覺(jué)得很多人都會(huì)覺(jué)得,這不僅僅是在做一份工作,而是我們真的就是在支持整個(gè)AI的前沿的發(fā)展,你做的每一件事情都感覺(jué)非常有意義,我當(dāng)時(shí)是非常自豪的感覺(jué)。我出去跟別人說(shuō),我是在做Llama 3的團(tuán)隊(duì),一些創(chuàng)業(yè)公司的創(chuàng)始人他們都會(huì)說(shuō):非常感謝你的努力。感覺(jué)整個(gè)技術(shù)圈,尤其是AI創(chuàng)業(yè)圈,都在指望Llama。

Meta乘著東風(fēng),期望Llama 4的發(fā)布,能進(jìn)一步的擴(kuò)大自身在AI開(kāi)發(fā)社區(qū)的影響力,保持“頂尖大模型中的唯一開(kāi)源存在”。

扎克伯格在2025年1月底財(cái)報(bào)會(huì)議后發(fā)帖說(shuō),“我們對(duì)Llama 3的目標(biāo)是使開(kāi)源與封閉模型具有競(jìng)爭(zhēng)力,而我們對(duì)Llama 4的目標(biāo)是領(lǐng)先?!?/p>

然而,三個(gè)月之后的Llama 4發(fā)布,卻是一場(chǎng)徹底的災(zāi)難和滑鐵盧。

Chapter 2.4 Llama 4: 滑鐵盧

2025年4月5日,Meta推出Llama 4的兩個(gè)版本(Scout與Maverick),宣稱多模態(tài)與長(zhǎng)上下文能力大幅躍進(jìn),并在宣傳中高調(diào)引用LMArena排行榜上的領(lǐng)先成績(jī):Maverick版本僅次于Gemini 2.5 Pro,與ChatGPT 4o和Grok 3 Pro并列第二。

然而很快,開(kāi)發(fā)者社區(qū)的反饋并不正面,認(rèn)為L(zhǎng)lama 4的效果不及預(yù)期。市面上開(kāi)始有流言質(zhì)疑Meta在LMArena上沖到第二名的版本有作弊嫌疑,懷疑Llama 4給LMArena排名的是經(jīng)過(guò)了優(yōu)化的變體,而這個(gè)變體經(jīng)過(guò)了對(duì)話強(qiáng)化的訓(xùn)練,存在誤導(dǎo)LMArena、導(dǎo)致過(guò)擬合的現(xiàn)象。

雖然Meta高層迅速否認(rèn)了作弊,但影響迅速發(fā)酵,一方面,媒體紛紛將此視為“用特調(diào)版本刷榜”的“誘餌換包”(bait-and-switch),行業(yè)對(duì)基準(zhǔn)公信力與可復(fù)現(xiàn)性的討論升溫;另一方面,Meta更高端的Behemoth版本推遲發(fā)布,公關(guān)與節(jié)奏嚴(yán)重受挫。

截至目前,Behemoth還沒(méi)有發(fā)布,Meta應(yīng)該是放棄了。

接下來(lái)就是大家所知道的,扎克伯格開(kāi)始孤注一擲的大手筆收購(gòu)Scale AI,把Alexander Wang挖過(guò)來(lái)領(lǐng)導(dǎo)新的AI架構(gòu),之后用上億美元的支票開(kāi)始挖人,瘋狂攪局硅谷AI人才市場(chǎng)。

再之后就是最近的新聞,Alex開(kāi)始重組整個(gè)Meta的AI架構(gòu),裁掉600人。

但大家看看這個(gè)時(shí)間線,是不是還是覺(jué)得很割裂,在Llama 3和Llama 4的這一年中,發(fā)生了什么?怎么Llama 4一下子就不行了?這是不是也太快了。

我們通過(guò)復(fù)盤(pán),也許找到了一些答案。還記得我們?cè)谇拔奶岬?,Meta內(nèi)部的AI架構(gòu)是一架天平嗎?Llama 4失敗的原因就是:這架天平失衡了。

03 失衡天平:前沿研究與商業(yè)化的路線之爭(zhēng)

在Meta的AI架構(gòu)中,F(xiàn)AIR和GenAI是并行的兩個(gè)組,Yann Lecun管FAIR,但Yann LeCun很多時(shí)候沉浸在自己的研發(fā)中,有時(shí)候還在網(wǎng)上跟人,比如說(shuō)馬斯克對(duì)戰(zhàn),還經(jīng)常說(shuō)不看好LLM路線,讓Meta很頭疼。

于是,2023年2月,Meta高層把Meta AI的研究負(fù)責(zé)人Joelle Pineau調(diào)到FAIR,擔(dān)任FAIR的全球負(fù)責(zé)人,與Yann LeCun兩人一起領(lǐng)導(dǎo)FAIR。

而GenAI的負(fù)責(zé)人是Ahmad Al-Dahle,這個(gè)哥們兒之前在蘋(píng)果工作了快17年,而扎克伯格把他挖過(guò)來(lái)的原因,就是想把AI和Meta的各種產(chǎn)品結(jié)合起來(lái),包括元宇宙,智能眼鏡的AI整合,以及聊天工具meta.ai等等。

而就在經(jīng)歷了Llama 2的成功,公司開(kāi)始研發(fā)Llama 3的過(guò)程中,Meta高層越來(lái)越強(qiáng)調(diào)“要將AI用于自家產(chǎn)品”的屬性。

于是我們看到,2024年1月,Meta的AI團(tuán)隊(duì)進(jìn)行了一次重組,F(xiàn)AIR的兩名負(fù)責(zé)人開(kāi)始直接匯報(bào)給Meta的CPO(首席產(chǎn)品官)Chris Cox。

Gavin Wang

前Meta AI工程師,從事Llama 3后訓(xùn)練:

整個(gè)Llama 1 ~ 3算是一個(gè)時(shí)代,大家很瘋狂地在卷scaling law(縮放法則),當(dāng)時(shí)整個(gè)行業(yè)里都在追隨基礎(chǔ)模型的能力的提升。大家在探索基礎(chǔ)模型、大語(yǔ)言模型本身的能力的邊界。但是Meta的領(lǐng)導(dǎo)層, 像扎克伯格和CPO Chris Cox,他們其實(shí)很早就意識(shí)到大語(yǔ)言模型的能力能夠落地,能真正為社會(huì)產(chǎn)生價(jià)值,他們肯定是從產(chǎn)品力上去出發(fā)的。

所以說(shuō)當(dāng)時(shí)Llama 2和Llama 3的階段,整個(gè)GenAI的核心目標(biāo)是讓研究成果真正產(chǎn)品化、工程化。也因此就是在最高管理層層面,包括副總裁、高級(jí)總監(jiān)的高層,是由一些之前更多的是產(chǎn)品背景和工程背景的人來(lái)領(lǐng)導(dǎo)的。

在Llama 3成功推出,Meta高層開(kāi)始制定Llama 4的路線之際,所有的注意力都放在了與產(chǎn)品結(jié)合上,也就是多模態(tài)能力,因此忽視了對(duì)模型推理能力上的重視。

而就在Llama 3到Llama 4的這一年研發(fā)過(guò)程中,2024年9月12日,OpenAI推出了基于思維鏈的o1系列模型,之后的2024年12月,中國(guó)的deepseek開(kāi)源模型橫空出世,用MOE混合專家架構(gòu)在保證推理能力的情況下大幅度降低了模型成本。

陳茜

硅谷101聯(lián)合創(chuàng)始人:

你在被拉去救火Llama 4之前,手上在研究什么?

田淵棟

前Meta基礎(chǔ)AI研究(FAIR)團(tuán)隊(duì)研究總監(jiān):

我們這邊在做一些關(guān)于推理的一些研究。主要是關(guān)于思維鏈,包括思維鏈的形態(tài)和訓(xùn)練的方式做了一些研究。o1是去年9月份出來(lái)的,其實(shí)我們?cè)趏1出來(lái)之前,就注意到非常長(zhǎng)的思維鏈會(huì)對(duì)整個(gè)模型的scaling law(縮放法則)產(chǎn)生影響。

其實(shí)FAIR組中,田淵棟等研究員已經(jīng)在著手思維鏈的研究,但這樣對(duì)推理能力的前沿探索并沒(méi)有及時(shí)傳達(dá)到Llama模型的工程上。

Gavin Wang

前Meta AI工程師,從事Llama 3后訓(xùn)練:

Llama 4規(guī)劃的時(shí)候,就會(huì)感覺(jué)到這個(gè)地方可能領(lǐng)導(dǎo)層的方向有一些變化。我認(rèn)為總體來(lái)說(shuō)他們還是想要支持Meta本身重點(diǎn)去推的一些產(chǎn)品,就是Llama本身的生態(tài),多模態(tài)肯定是其中的一個(gè)重點(diǎn)。但是DeepSeek在1月份的時(shí)候橫空出世,它們的推理能力非常的強(qiáng)。

推理能力在當(dāng)時(shí)也是討論的其中一個(gè)方向,但是因?yàn)镸eta本身的生態(tài),它們更看重多模態(tài),沒(méi)有重點(diǎn)去做推理。但是當(dāng)DeepSeek出現(xiàn)了以后,那時(shí)我實(shí)際上已經(jīng)離開(kāi)了Llama的團(tuán)隊(duì),不過(guò)據(jù)說(shuō)當(dāng)時(shí)他們有在討論說(shuō)是不是要重新把推理的地方撿起來(lái),但這個(gè)地方可能優(yōu)先級(jí)上有一些沖突,加上時(shí)間也非常的有限,就導(dǎo)致大家加班加點(diǎn)地做了很多的嘗試,非常得忙。我覺(jué)得DeepSeek的出現(xiàn)肯定是造成了公司里面資源還有優(yōu)先級(jí)管理上的一些混亂。

還有一點(diǎn),我覺(jué)得Llama 1~3整個(gè)模型的架構(gòu)和組織的架構(gòu),是延續(xù)了一開(kāi)始的設(shè)計(jì)。但是因?yàn)長(zhǎng)lama 3的成功,大家就希望Llama 4能夠更進(jìn)一步,能夠做一些更大的工程。那這個(gè)時(shí)候可能出現(xiàn)了一些問(wèn)題,我的觀察就是公司比較高層的,像副總裁、資深總監(jiān)這個(gè)層面,他們很多人是比較傳統(tǒng)的基礎(chǔ)架構(gòu)、計(jì)算機(jī)視覺(jué)背景,可能自然語(yǔ)言處理背景的都比較少。

所以可能他們技術(shù)層面對(duì)于AI原生技術(shù)或者是大語(yǔ)言模型這些東西就沒(méi)有一個(gè)深度的理解和認(rèn)識(shí)。真正懂行的,可能是下面具體做事的一些博士,尤其是我們非常驕傲的是,華人的博士都是技術(shù)非常扎實(shí)的。但是他們獲得的話語(yǔ)權(quán),或者說(shuō)在公司內(nèi)部的資源沒(méi)有那么多。所以說(shuō)可能不知什么緣故就造成一種外行管理內(nèi)行的一些局面出現(xiàn)。

因?yàn)镺penAI的o1系列和DeepSeek的出現(xiàn),讓Meta在2025年年初亂了陣腳。于是,高層臨時(shí)讓FAIR的研究團(tuán)隊(duì)去支援Llama 4的研發(fā),或者可以直接說(shuō)是去“救火”,而這個(gè)“救火團(tuán)隊(duì)”就是田淵棟帶隊(duì)的。

田淵棟

前Meta基礎(chǔ)AI研究(FAIR)團(tuán)隊(duì)研究總監(jiān):

我覺(jué)得現(xiàn)在很大的一個(gè)教訓(xùn)就是,做這樣的項(xiàng)目不能讓不懂的人來(lái)做整個(gè)的領(lǐng)導(dǎo)者或者做整個(gè)的規(guī)劃。如果有些東西出了問(wèn)題的話,應(yīng)該是大家說(shuō):ok,我們不能在這個(gè)時(shí)候發(fā)布,我們?cè)偻笸?。?yīng)該是采用一種,我拖到什么時(shí)候結(jié)束能夠正常運(yùn)作才發(fā)布的階段。而不能說(shuō)把deadline先定好,不然的話有很多事情是做不好的。

我覺(jué)得我們組里面當(dāng)時(shí)很多人非常累,比如說(shuō)像我是在加州,因?yàn)槲矣袔讉€(gè)團(tuán)隊(duì)成員在東部時(shí)區(qū),他們晚上12點(diǎn)給我打電話,他們那邊已經(jīng)3點(diǎn)鐘了,還在干活,所以非常的辛苦。為什么他們那么辛苦呢?是因?yàn)閐eadline壓得很緊。比如說(shuō)我們的deadline就是要計(jì)劃在某一天要發(fā)布,項(xiàng)目管理就需要從后往前倒退,然后看2月底或者3月初一定要做什么事情、3月底要做什么事情。

但如果你在做這些事情的時(shí)候,你發(fā)現(xiàn)這個(gè)模型這方面不行,或者說(shuō)數(shù)據(jù)有什么問(wèn)題,在這種情況下,我覺(jué)得有一個(gè)很大的問(wèn)題就是,你怎么樣能夠讓大家因?yàn)槟氵@句話停下來(lái)。就比如說(shuō),我說(shuō)這個(gè)數(shù)據(jù)有問(wèn)題,不行,我這個(gè)數(shù)據(jù)不能用,我們得換一個(gè)數(shù)據(jù)。那這樣的話就多出事了,我們得把整個(gè)事情往后延一個(gè)星期、兩個(gè)星期。但這個(gè)事情能不能做到是一個(gè)很大的問(wèn)題。如果在很強(qiáng)的deadline壓力之下,最后結(jié)果就是這事情做不了,或者說(shuō)大家沒(méi)有辦法去提出異議,那這樣的話最后的質(zhì)量就會(huì)變得很差。這是一個(gè)比較大的問(wèn)題。

陳茜

硅谷101聯(lián)合創(chuàng)始人:

為什么Meta會(huì)有那么強(qiáng)的壓力在deadline上面呢?因?yàn)殚_(kāi)源模型,其實(shí)它已經(jīng)是第一了。當(dāng)然,DeepSeek在年初的時(shí)候出來(lái),大家都沒(méi)有意料的到。但是為什么它有那么強(qiáng)的deadline說(shuō)我一定要在這個(gè)時(shí)候把這個(gè)東西推出來(lái)?

田淵棟

前Meta基礎(chǔ)AI研究(FAIR)團(tuán)隊(duì)研究總監(jiān):

應(yīng)該說(shuō)有個(gè)上面高層定下的deadline,但這個(gè)我就不方便說(shuō)了,可能能你要去問(wèn)一下相關(guān)的人,懂的都懂。

我們?cè)谶@里基本上能有一些答案了,從Llama 3開(kāi)始,“將AI產(chǎn)品化”這樣的路線就已經(jīng)制定,整個(gè)模型注重多模態(tài)和應(yīng)用、忙于整合應(yīng)用和業(yè)務(wù),但卻忽略了推理和更前沿的技術(shù)研發(fā)。這讓天平另一邊的FAIR團(tuán)隊(duì)不得不跨組來(lái)“救火”,就這樣,天平失衡了。

田淵棟

前Meta基礎(chǔ)AI研究(FAIR)團(tuán)隊(duì)研究總監(jiān):

但實(shí)際情況其實(shí)是因?yàn)榍把啬P偷母?jìng)爭(zhēng)太激烈了,所以基本上很難真的去用FAIR這邊的一些文章。雖然有些文章是被用到了,但是我們?cè)诮涣鞯倪^(guò)程中還是會(huì)存在一些問(wèn)題。我當(dāng)時(shí)就是在FAIR的時(shí)候,我有時(shí)候Ping(發(fā)信息給)GenAI的人,他們都不理我,這是什么情況?但是真的我去了GenAI之后我會(huì)覺(jué)得,確實(shí)我也沒(méi)法理他們(FAIR研究員們)。

因?yàn)樘α?,比如說(shuō)我半小時(shí)不看手機(jī),可能就有20條、30條的消息要去看,有很多的人要找,有很多的事情要決定。所以我也能理解了,在GenAI這樣的環(huán)境下,很難有比較長(zhǎng)期的思考過(guò)程。

而扎克伯格是如何修復(fù)這個(gè)失衡的天平呢?他直接空降了一個(gè)特種部隊(duì):由Alex Wang帶隊(duì)的TBD團(tuán)隊(duì)。

04 空降“新王”:28歲Alex Wang獲“無(wú)限特權(quán)”

Meta的AI業(yè)務(wù)架構(gòu)如今再一次重組之后,高層也經(jīng)歷了一系列的動(dòng)蕩。

Alex Wang帶領(lǐng)幾十位高薪聘請(qǐng)來(lái)的頂級(jí)研究員,單獨(dú)成立了這個(gè)在Meta內(nèi)部擁有無(wú)限特權(quán)和優(yōu)先級(jí)別的特別小組TBD。TBD,F(xiàn)AIR和GenAI一起組成Meta Superintelligence Labs(MSL部門(mén)),直接匯報(bào)給Alex,而Alex直接匯報(bào)給扎克伯格。

這也意味著,F(xiàn)AIR的Yann LeCun如今也匯報(bào)給Alex,而Joelle Pineau此前被要求匯報(bào)給GenAI組的負(fù)責(zé)人Ahmad。

我們看到,Joelle已經(jīng)在今年5月離職,去了Cohere做首席AI官;而Ahmad說(shuō)實(shí)話已經(jīng)很久沒(méi)有什么聲音了,也沒(méi)有被任命負(fù)責(zé)任何重要的項(xiàng)目;而CPO Chris Cox也被Alex搶了風(fēng)頭,排除在了AI團(tuán)隊(duì)的直接領(lǐng)導(dǎo)者之外。

所以現(xiàn)在的架構(gòu)就是,28歲的Alex一人獨(dú)大的局面。

我們聽(tīng)到過(guò)Meta內(nèi)部各種對(duì)Alex和他領(lǐng)導(dǎo)的這支極度有特權(quán)小組的不滿,包括TBD團(tuán)隊(duì)里的人可以三年不用做績(jī)效考評(píng)、可以不理不回其它任何VP的信息、Meta AI的所有paper都要給TBD里面的人去審核才能給發(fā)表。

要知道,TBD里面不少人比較年輕,這是讓很多資深的研究員非常不滿, 反正就是各種內(nèi)部政治斗爭(zhēng)感覺(jué)又要起來(lái)一波。

但不可否認(rèn)的是,特權(quán)的等號(hào)后面是成績(jī)。這個(gè)成績(jī)對(duì)于扎克伯格來(lái)說(shuō),不僅僅是Make Llama Great Again(讓Meta再次偉大),而是“Meta has to win”(Meta必須贏)。

在這場(chǎng)AI競(jìng)賽中,目前的這場(chǎng)重組,也許對(duì)于扎克伯格來(lái)說(shuō)是最后的一次,也是最重要的機(jī)會(huì)。而Alex在團(tuán)隊(duì)內(nèi)部郵件中就寫(xiě)到他將做出的三個(gè)改變:

1.集中TBD和FAIR團(tuán)隊(duì)的核心基礎(chǔ)研究力量;

2.提升產(chǎn)品和應(yīng)用研發(fā)的融合、且繼續(xù)以產(chǎn)品為模型聚焦點(diǎn);

3.成立一個(gè)核心基建團(tuán)隊(duì)來(lái)支持研究押注。

Tom Zhang

硅谷資深人才專家:

第一條就是把基礎(chǔ)研究、TBD Lab和FAIR更集中化,就讓它兩個(gè)更緊密的去結(jié)合。所以這回裁掉的一些研究人員,郵件上也說(shuō),可能他們的項(xiàng)目沒(méi)有那么高的影響力。你再做一些前沿的研究,但和我們現(xiàn)在沒(méi)有關(guān)系,因?yàn)楹芏嗲把匮芯渴歉叨瘸橄蟮?,是從?shù)學(xué)的角度,從很多理論的角度,它其實(shí)和工程的離得比較遠(yuǎn)。

第二個(gè)就是把產(chǎn)品和模型更緊密地結(jié)合,和Alex Wang一起進(jìn)來(lái)的人,有一個(gè)就是GitHub的原來(lái)CEO。等于扎克伯格同時(shí)引進(jìn)了兩個(gè)高端人才,一個(gè)是Alex Wang,統(tǒng)一來(lái)說(shuō)就是管模型的;一個(gè)GitHub前CEO Nat Friedman,他是偏產(chǎn)品的,因?yàn)楫a(chǎn)品才能給這個(gè)模型更好的反饋,在用的過(guò)程中進(jìn)行飛輪效應(yīng)。

第三條是組建一個(gè)統(tǒng)一的核心基礎(chǔ)設(shè)施(Infra)團(tuán)隊(duì),就把管卡的數(shù)據(jù)中心團(tuán)隊(duì)更集中化。過(guò)去很可能是很散的,好幾個(gè)領(lǐng)導(dǎo)都在,你要卡你得來(lái)申請(qǐng)?,F(xiàn)在卡這個(gè)事也是統(tǒng)一來(lái)管理。所以這個(gè)郵件寫(xiě)得還是挺清楚的。

而Alex能否撐得起扎克伯格的押注呢,也許很快我們就會(huì)有答案。

總結(jié)一下,Meta在Llama前三代都還是領(lǐng)先的開(kāi)源模型,引領(lǐng)著開(kāi)源派去對(duì)抗OpenAI和谷歌Gemini這樣的閉源派。

然而,在Llama 3大獲成功之后,公司高層急于將AI結(jié)合產(chǎn)品化,在規(guī)劃路線的時(shí)候用“產(chǎn)品驅(qū)動(dòng)研發(fā)”的思維,將Llama 4的升級(jí)聚焦在多模態(tài)等工程性能上,但卻錯(cuò)失了思維鏈(CoT)等推理上的前沿技術(shù)時(shí)間優(yōu)勢(shì)。

雖然當(dāng)時(shí)田淵棟等FAIR的AI科學(xué)家已經(jīng)在研究CoT了,等DeepSeek引發(fā)轟動(dòng)之后,又將FAIR的田淵棟團(tuán)隊(duì)臨時(shí)救火優(yōu)化Llama 4上的MoE架構(gòu),反而又中斷了CoT和推理上的研發(fā),導(dǎo)致AI前沿技術(shù)研究和產(chǎn)品工程這架天平徹底失衡。

在采訪過(guò)程中,我腦中不止一次閃過(guò)歷史上那些閃耀一時(shí)的前沿實(shí)驗(yàn)室:貝爾實(shí)驗(yàn)室、IBM Watson Research、HP實(shí)驗(yàn)室等等,但基本都因?yàn)闊o(wú)法平衡前沿科研和商業(yè)化而日益衰落,十多年歷史的FAIR,曾經(jīng)是一群理想化AI科學(xué)家的烏托邦之地,而如今又成了另一個(gè)商業(yè)化的犧牲品。

你認(rèn)為這場(chǎng)由Llama 4失敗引發(fā)的大重組,是Meta AI的最后機(jī)會(huì)嗎?歡迎在評(píng)論區(qū)留言告訴我們。

 
本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。

Facebook

3.7k
  • 谷歌正與Meta合作,擴(kuò)大對(duì)AI芯片的軟件支持
  • Meta使用阿里千問(wèn)優(yōu)化其最新AI模型

評(píng)論

暫無(wú)評(píng)論哦,快來(lái)評(píng)價(jià)一下吧!

下載界面新聞

微信公眾號(hào)

微博

失衡的烏托邦:Meta的開(kāi)源AI路線是如何遭遇滑鐵盧的

Meta被裁高管親述內(nèi)幕。

文|硅谷101

2025年10月底,Meta AI部門(mén)宣布裁員600個(gè)職位,甚至核心部門(mén)的研究總監(jiān),同時(shí)掌管AI業(yè)務(wù)的高管紛紛離職、被邊緣化,就連圖靈獎(jiǎng)得主Yann LeCun也被認(rèn)為自身難保。

一方面扎克伯格在用上億美元的年薪挖AI人才,但同時(shí)又如此決絕的裁員,這樣割裂的行為背后是因?yàn)槭裁矗?/p>

于是我們采訪了Meta的前FAIR研究總監(jiān)AI科學(xué)家田淵棟、參與了Llama 3后訓(xùn)練的前Meta員工Gavin Wang、硅谷資深HR專家以及一些匿名人士,試圖還原一下Meta的Llama開(kāi)源路線到底發(fā)生了什么:

為什么Llama 3還讓眾人驚艷,而僅一年之后的Llama 4就如此拉胯?中間發(fā)生了什么?Meta的開(kāi)源路線從一開(kāi)始就注定是個(gè)錯(cuò)誤嗎?AI大模型激烈對(duì)戰(zhàn)的當(dāng)下,一個(gè)烏托邦式的AI研究實(shí)驗(yàn)室還能夠存在嗎?

01 FAIR與GenAI的誕生:Meta的AI十年布局與架構(gòu)搭建

首先來(lái)看看Meta對(duì)AI布局的整個(gè)公司架構(gòu)。

2013年年底,扎克伯格開(kāi)始搭建Meta的AI團(tuán)隊(duì)。當(dāng)時(shí),谷歌收購(gòu)了Geoffrey Hinton的DNN團(tuán)隊(duì),將Hinton招入麾下,同一時(shí)間,Meta將Yann Lecun請(qǐng)來(lái)坐鎮(zhèn)AI的發(fā)展。至此,圖靈獎(jiǎng)三巨頭的兩位開(kāi)始步入商業(yè)科技來(lái)主導(dǎo)AI研發(fā)。

在扎克伯格邀請(qǐng)Yann LeCun加入Meta的時(shí)候,后者提過(guò)三個(gè)條件:

1.不從紐約搬走;

2.不會(huì)辭去在紐約大學(xué)的工作;

3.必須開(kāi)展開(kāi)放的研究,公開(kāi)發(fā)布所做的所有工作,并將代碼開(kāi)源。

所以,一開(kāi)始Meta的路線就是開(kāi)源的。Yann LeCun進(jìn)入Meta之后,開(kāi)始著手前沿的AI研發(fā),組建了Fundamental AI Research實(shí)驗(yàn)室,也就是大名鼎鼎的FAIR實(shí)驗(yàn)室,主導(dǎo)人工智能的前沿研究。

田淵棟

前Meta基礎(chǔ)AI研究(FAIR)團(tuán)隊(duì)研究總監(jiān):

FAIR是負(fù)責(zé)前沿研究的,就是做一些現(xiàn)在目前看起來(lái)沒(méi)有特別大的應(yīng)用,但是新的想法、新的思路、新的算法、新的框架、新的模型架構(gòu)。這樣的探索之后可能會(huì)有一些大的突破,大概是這樣的一個(gè)邏輯。

但是對(duì)于Meta來(lái)說(shuō),最終還是要看到AI在自身產(chǎn)品上的進(jìn)展。于是和FAIR組平行設(shè)置了一個(gè)組叫“Generative AI”,簡(jiǎn)稱“GenAI”組。

這個(gè)組里面分別有不同的功能團(tuán)隊(duì),包括了Llama開(kāi)源模型的研發(fā),將AI能力運(yùn)用到產(chǎn)品上的Meta AI團(tuán)隊(duì),還有AI算力基建的數(shù)據(jù)中心團(tuán)隊(duì),其它的還有一些小部門(mén),比如說(shuō)Search(搜索),Enterprise(企業(yè)服務(wù)),Video-gen(文生視頻)模型等等。

GenAI和FAIR是平行關(guān)系,這像是一個(gè)天平,一邊是前沿科研,一邊是產(chǎn)品化。理想情況下,前沿研究能帶來(lái)更好的產(chǎn)品力,而產(chǎn)品賺錢(qián)了能讓管理層有更大的動(dòng)力撥款給FAIR去做研發(fā)。

田淵棟

前Meta基礎(chǔ)AI研究(FAIR)團(tuán)隊(duì)研究總監(jiān):

比如FAIR會(huì)提供一些很好的想法和工作給GenAI去用,讓GenAI把這些想法和工作放進(jìn)生產(chǎn),然后在下一代模型中使用出來(lái)。

很多人的初心就是說(shuō)想做一些不一樣的東西,或者是與眾不同的方向、工作。能不能真正地實(shí)現(xiàn)AGI(通用人工智能)?這其實(shí)是個(gè)比較大的問(wèn)題。

陳茜

硅谷101聯(lián)合創(chuàng)始人:

所以FAIR的目的是AGI,但是GenAI它的目的是怎么把AI放在Meta現(xiàn)有的產(chǎn)品中,讓AI發(fā)生效應(yīng)。

田淵棟

前Meta基礎(chǔ)AI研究(FAIR)團(tuán)隊(duì)研究總監(jiān):

對(duì),應(yīng)該說(shuō)主要一方面是Llama,Llama是一個(gè)很大的模型。還有就是怎么樣把AI比較好地用在一些具體的應(yīng)用上。

但是,讓這樣的天平始終保持平衡,是一個(gè)很理想化的烏托邦狀態(tài)。而這個(gè)烏托邦狀態(tài)的前提是,Meta的AI模型水平一直是要保持最領(lǐng)先的,或者說(shuō),至少是在開(kāi)源賽道最領(lǐng)先,且不落后閉源模型太多的。

陳茜

硅谷101聯(lián)合創(chuàng)始人:

你覺(jué)得在FAIR最快樂(lè)的一段時(shí)光是什么時(shí)候?

田淵棟

前Meta基礎(chǔ)AI研究(FAIR)團(tuán)隊(duì)研究總監(jiān):

我覺(jué)得從我入職FAIR之后一直到2022年,這段時(shí)間是很開(kāi)心的。因?yàn)榇笳Z(yǔ)言模型來(lái)了之后,整個(gè)生態(tài)或者說(shuō)研究者之間的關(guān)系發(fā)生了一些變化。因?yàn)榇笳Z(yǔ)言模型來(lái)了之后,算力成了很重要的一個(gè)因素。

因?yàn)樗懔κ怯邢薜?,所以就?huì)產(chǎn)生各種問(wèn)題、各種矛盾。大家都要訓(xùn)練一個(gè)很大的模型,如果是這樣的話,相互之間就開(kāi)始有一些問(wèn)題,比如說(shuō)如果我卡多了,你卡就少了。因?yàn)榭ú欢嗑蜎](méi)辦法訓(xùn)練出很好的模型,所以在2023年之后這段時(shí)間之內(nèi),狀態(tài)肯定不會(huì)像以前那么好。

而Meta的AI天平是如何失衡的呢?我們可以從Llama的四代發(fā)布中,看到一些端倪和痕跡。

02 “開(kāi)源之光”:Llama的昔日驕傲與滑鐵盧?

之所以Meta給自家大語(yǔ)言模型取名“Llama”,據(jù)說(shuō)是因?yàn)榭紤]到Large Language Model的縮寫(xiě)“LLM”不太好發(fā)音,所以就補(bǔ)上了元音字母?!癓lama”朗朗上口也便于記憶傳播。也正是這樣,大語(yǔ)言模型命名自此才和“羊駝”扯上了關(guān)系。

Chapter 2.1 Llama 1:開(kāi)源的“種子”

我們先來(lái)看看Llama 1,這也為Meta的大模型“開(kāi)源”路線奠定了基礎(chǔ)。

2023年2月24日,Meta發(fā)布Llama模型,主打“更小參數(shù)更好效果”(多規(guī)模:7B/13B/33B/65B),強(qiáng)調(diào)當(dāng)時(shí)的13B模型可以在多項(xiàng)基準(zhǔn)上超過(guò)175B參數(shù)的GPT-3。

而Llama在官宣之后的一周,權(quán)重在4chan上以種子形式被“泄露”,引發(fā)了AI社區(qū)對(duì)開(kāi)源模型的廣泛討論,甚至還引發(fā)國(guó)會(huì)參議員致信質(zhì)詢Meta。

雖然有不少質(zhì)疑的聲音,但業(yè)界對(duì)Llama的“意外泄露”出人意料的支持,而這也被視為“大模型開(kāi)源”的格局重塑,并且很快催生出了諸多的民間微調(diào)項(xiàng)目。

我們?cè)谶@里稍微解釋一下大模型的“開(kāi)源”定義。其實(shí)Meta也不是完全的開(kāi)源。Meta稱之為“開(kāi)放權(quán)重”(Open weights)。

在機(jī)器學(xué)習(xí)中,有三個(gè)部分:結(jié)構(gòu)(architecture),權(quán)重(weights)和代碼(code)。所謂“權(quán)重”,就是模型學(xué)習(xí)到的所有參數(shù)數(shù)值。模型訓(xùn)練完成后,所有參數(shù)會(huì)存成幾個(gè)巨大的二進(jìn)制文件。每個(gè)文件里保存著每一層神經(jīng)網(wǎng)絡(luò)的矩陣數(shù)值。而在推理時(shí),模型代碼會(huì)加載這些權(quán)重文件,用GPU進(jìn)行矩陣運(yùn)算生成文本。

所以“開(kāi)放權(quán)重”就意味著向公眾提供訓(xùn)練好的參數(shù)文件,外界可以本地加載、部署和微調(diào),但還不是完全的“開(kāi)源”,因?yàn)檎嬲拈_(kāi)源意味著公開(kāi)訓(xùn)練數(shù)據(jù)、代碼和許可等等。但Meta并沒(méi)有公開(kāi)這些信息,甚至之后的Llama2、3、4代都僅僅是開(kāi)放權(quán)重,只是在許可證的政策上有些松動(dòng)。

雖然Llama屬于“半開(kāi)源”,但比起OpenAI,Anthropic和谷歌完全閉源、只通過(guò)API接口來(lái)提供模型能力服務(wù)的公司來(lái)說(shuō),已經(jīng)算給開(kāi)源社區(qū)帶來(lái)非常旺盛的生命力了。

Chapter 2.2 Llama 2: 開(kāi)放“可商用”

2023年7月28日,Meta聯(lián)合微軟發(fā)布了大模型Llama 2,包含7B、13B和70B參數(shù)的三種參數(shù)變體。

新一代模型的“開(kāi)源”雖然也是“開(kāi)放權(quán)重”,但對(duì)比Llama 1的不可商用、只能申請(qǐng)研究用途而言,Llama 2是一個(gè)免費(fèi)可商用的版本,更放寬了許可證的權(quán)限,而Wired等雜志更是指出,Llama 2 讓“開(kāi)放路線”對(duì)抗封閉模型巨頭成為現(xiàn)實(shí)。

而我們看到,Llama 2很快在開(kāi)發(fā)者社區(qū)風(fēng)靡起來(lái),它的可得性顯著放大了生態(tài)和AI開(kāi)發(fā)。

之后,就到了2024年的Llama 3,這也是Llama系列最為輝煌的時(shí)刻。

Chapter 2.3 Llama 3系列: 逼近閉源陣營(yíng)

步入Llama3的時(shí)代,Meta已經(jīng)成為AI開(kāi)源社區(qū)的頂流存在。2024年的4月到9月,Meta連發(fā)三個(gè)版本的模型迭代。

2024年4月18日,Meta發(fā)布8B、70B兩個(gè)規(guī)格的Llama 3版本,稱同等規(guī)模“顯著超越Llama 2”,并將其作為Meta AI助手的底座之一。

之后的7月23日,Meta推出405B、70B、8B三檔Llama 3.1模型,并宣稱405B是“全球最強(qiáng)的開(kāi)放可得基礎(chǔ)模型”之一;同時(shí)登陸AWS Bedrock、IBM watsonx等平臺(tái)。

僅兩個(gè)月之后的2024年9月25日,Meta推出Llama 3.2,主打小而全的多模態(tài),新增1B與3B輕量文本模型與1B與90B的視覺(jué)多模態(tài)模型,面向終端/邊緣場(chǎng)景;AWS等平臺(tái)同步接入,開(kāi)源框架平臺(tái)OLlama亦可本地運(yùn)行。

我們采訪到了Llama 3團(tuán)隊(duì)的Gavin Wang,他負(fù)責(zé)Llama 3的后訓(xùn)練工作,對(duì)我們表示當(dāng)時(shí)整個(gè)Meta,GenAI團(tuán)隊(duì)是在以“光速”前進(jìn),真的有種“AI一天,人間一年”的感覺(jué)。

Gavin Wang

前Meta AI工程師,從事Llama 3后訓(xùn)練:

當(dāng)時(shí)Llama3.1/3.2確實(shí)是有很多很好的進(jìn)展,比如多模態(tài)是在這個(gè)階段里面發(fā)布的,包括后面他們做Lightweight model(輕量化模型)1B/3B的。我覺(jué)得這時(shí)候產(chǎn)品化生態(tài)取得了很大進(jìn)展,很多的社群都有支持,包括我有朋友在Llama Stack團(tuán)隊(duì),他們就是專門(mén)支持整個(gè)Llama的生態(tài)在企業(yè)級(jí)或者說(shuō)小企業(yè)級(jí)的落地。

Llama 3的強(qiáng)勢(shì)出擊,特別是450B版本被認(rèn)為是在模型能力上對(duì)閉源陣營(yíng)的逼近,也被認(rèn)為將快速推動(dòng)AI應(yīng)用的落地。而對(duì)于Meta內(nèi)部員工來(lái)說(shuō),特別是在Llama組的AI工程師們,這是一件非常讓他們值得驕傲的項(xiàng)目。

Gavin Wang

前Meta AI工程師,從事Llama 3后訓(xùn)練:

當(dāng)時(shí)的敘事是說(shuō),Meta是大廠里面唯一一個(gè)剩下開(kāi)源的模型,而且還對(duì)整個(gè)開(kāi)源生態(tài)很有貢獻(xiàn)。當(dāng)時(shí)我覺(jué)得很多人都會(huì)覺(jué)得,這不僅僅是在做一份工作,而是我們真的就是在支持整個(gè)AI的前沿的發(fā)展,你做的每一件事情都感覺(jué)非常有意義,我當(dāng)時(shí)是非常自豪的感覺(jué)。我出去跟別人說(shuō),我是在做Llama 3的團(tuán)隊(duì),一些創(chuàng)業(yè)公司的創(chuàng)始人他們都會(huì)說(shuō):非常感謝你的努力。感覺(jué)整個(gè)技術(shù)圈,尤其是AI創(chuàng)業(yè)圈,都在指望Llama。

Meta乘著東風(fēng),期望Llama 4的發(fā)布,能進(jìn)一步的擴(kuò)大自身在AI開(kāi)發(fā)社區(qū)的影響力,保持“頂尖大模型中的唯一開(kāi)源存在”。

扎克伯格在2025年1月底財(cái)報(bào)會(huì)議后發(fā)帖說(shuō),“我們對(duì)Llama 3的目標(biāo)是使開(kāi)源與封閉模型具有競(jìng)爭(zhēng)力,而我們對(duì)Llama 4的目標(biāo)是領(lǐng)先?!?/p>

然而,三個(gè)月之后的Llama 4發(fā)布,卻是一場(chǎng)徹底的災(zāi)難和滑鐵盧。

Chapter 2.4 Llama 4: 滑鐵盧

2025年4月5日,Meta推出Llama 4的兩個(gè)版本(Scout與Maverick),宣稱多模態(tài)與長(zhǎng)上下文能力大幅躍進(jìn),并在宣傳中高調(diào)引用LMArena排行榜上的領(lǐng)先成績(jī):Maverick版本僅次于Gemini 2.5 Pro,與ChatGPT 4o和Grok 3 Pro并列第二。

然而很快,開(kāi)發(fā)者社區(qū)的反饋并不正面,認(rèn)為L(zhǎng)lama 4的效果不及預(yù)期。市面上開(kāi)始有流言質(zhì)疑Meta在LMArena上沖到第二名的版本有作弊嫌疑,懷疑Llama 4給LMArena排名的是經(jīng)過(guò)了優(yōu)化的變體,而這個(gè)變體經(jīng)過(guò)了對(duì)話強(qiáng)化的訓(xùn)練,存在誤導(dǎo)LMArena、導(dǎo)致過(guò)擬合的現(xiàn)象。

雖然Meta高層迅速否認(rèn)了作弊,但影響迅速發(fā)酵,一方面,媒體紛紛將此視為“用特調(diào)版本刷榜”的“誘餌換包”(bait-and-switch),行業(yè)對(duì)基準(zhǔn)公信力與可復(fù)現(xiàn)性的討論升溫;另一方面,Meta更高端的Behemoth版本推遲發(fā)布,公關(guān)與節(jié)奏嚴(yán)重受挫。

截至目前,Behemoth還沒(méi)有發(fā)布,Meta應(yīng)該是放棄了。

接下來(lái)就是大家所知道的,扎克伯格開(kāi)始孤注一擲的大手筆收購(gòu)Scale AI,把Alexander Wang挖過(guò)來(lái)領(lǐng)導(dǎo)新的AI架構(gòu),之后用上億美元的支票開(kāi)始挖人,瘋狂攪局硅谷AI人才市場(chǎng)。

再之后就是最近的新聞,Alex開(kāi)始重組整個(gè)Meta的AI架構(gòu),裁掉600人。

但大家看看這個(gè)時(shí)間線,是不是還是覺(jué)得很割裂,在Llama 3和Llama 4的這一年中,發(fā)生了什么?怎么Llama 4一下子就不行了?這是不是也太快了。

我們通過(guò)復(fù)盤(pán),也許找到了一些答案。還記得我們?cè)谇拔奶岬?,Meta內(nèi)部的AI架構(gòu)是一架天平嗎?Llama 4失敗的原因就是:這架天平失衡了。

03 失衡天平:前沿研究與商業(yè)化的路線之爭(zhēng)

在Meta的AI架構(gòu)中,F(xiàn)AIR和GenAI是并行的兩個(gè)組,Yann Lecun管FAIR,但Yann LeCun很多時(shí)候沉浸在自己的研發(fā)中,有時(shí)候還在網(wǎng)上跟人,比如說(shuō)馬斯克對(duì)戰(zhàn),還經(jīng)常說(shuō)不看好LLM路線,讓Meta很頭疼。

于是,2023年2月,Meta高層把Meta AI的研究負(fù)責(zé)人Joelle Pineau調(diào)到FAIR,擔(dān)任FAIR的全球負(fù)責(zé)人,與Yann LeCun兩人一起領(lǐng)導(dǎo)FAIR。

而GenAI的負(fù)責(zé)人是Ahmad Al-Dahle,這個(gè)哥們兒之前在蘋(píng)果工作了快17年,而扎克伯格把他挖過(guò)來(lái)的原因,就是想把AI和Meta的各種產(chǎn)品結(jié)合起來(lái),包括元宇宙,智能眼鏡的AI整合,以及聊天工具meta.ai等等。

而就在經(jīng)歷了Llama 2的成功,公司開(kāi)始研發(fā)Llama 3的過(guò)程中,Meta高層越來(lái)越強(qiáng)調(diào)“要將AI用于自家產(chǎn)品”的屬性。

于是我們看到,2024年1月,Meta的AI團(tuán)隊(duì)進(jìn)行了一次重組,F(xiàn)AIR的兩名負(fù)責(zé)人開(kāi)始直接匯報(bào)給Meta的CPO(首席產(chǎn)品官)Chris Cox。

Gavin Wang

前Meta AI工程師,從事Llama 3后訓(xùn)練:

整個(gè)Llama 1 ~ 3算是一個(gè)時(shí)代,大家很瘋狂地在卷scaling law(縮放法則),當(dāng)時(shí)整個(gè)行業(yè)里都在追隨基礎(chǔ)模型的能力的提升。大家在探索基礎(chǔ)模型、大語(yǔ)言模型本身的能力的邊界。但是Meta的領(lǐng)導(dǎo)層, 像扎克伯格和CPO Chris Cox,他們其實(shí)很早就意識(shí)到大語(yǔ)言模型的能力能夠落地,能真正為社會(huì)產(chǎn)生價(jià)值,他們肯定是從產(chǎn)品力上去出發(fā)的。

所以說(shuō)當(dāng)時(shí)Llama 2和Llama 3的階段,整個(gè)GenAI的核心目標(biāo)是讓研究成果真正產(chǎn)品化、工程化。也因此就是在最高管理層層面,包括副總裁、高級(jí)總監(jiān)的高層,是由一些之前更多的是產(chǎn)品背景和工程背景的人來(lái)領(lǐng)導(dǎo)的。

在Llama 3成功推出,Meta高層開(kāi)始制定Llama 4的路線之際,所有的注意力都放在了與產(chǎn)品結(jié)合上,也就是多模態(tài)能力,因此忽視了對(duì)模型推理能力上的重視。

而就在Llama 3到Llama 4的這一年研發(fā)過(guò)程中,2024年9月12日,OpenAI推出了基于思維鏈的o1系列模型,之后的2024年12月,中國(guó)的deepseek開(kāi)源模型橫空出世,用MOE混合專家架構(gòu)在保證推理能力的情況下大幅度降低了模型成本。

陳茜

硅谷101聯(lián)合創(chuàng)始人:

你在被拉去救火Llama 4之前,手上在研究什么?

田淵棟

前Meta基礎(chǔ)AI研究(FAIR)團(tuán)隊(duì)研究總監(jiān):

我們這邊在做一些關(guān)于推理的一些研究。主要是關(guān)于思維鏈,包括思維鏈的形態(tài)和訓(xùn)練的方式做了一些研究。o1是去年9月份出來(lái)的,其實(shí)我們?cè)趏1出來(lái)之前,就注意到非常長(zhǎng)的思維鏈會(huì)對(duì)整個(gè)模型的scaling law(縮放法則)產(chǎn)生影響。

其實(shí)FAIR組中,田淵棟等研究員已經(jīng)在著手思維鏈的研究,但這樣對(duì)推理能力的前沿探索并沒(méi)有及時(shí)傳達(dá)到Llama模型的工程上。

Gavin Wang

前Meta AI工程師,從事Llama 3后訓(xùn)練:

Llama 4規(guī)劃的時(shí)候,就會(huì)感覺(jué)到這個(gè)地方可能領(lǐng)導(dǎo)層的方向有一些變化。我認(rèn)為總體來(lái)說(shuō)他們還是想要支持Meta本身重點(diǎn)去推的一些產(chǎn)品,就是Llama本身的生態(tài),多模態(tài)肯定是其中的一個(gè)重點(diǎn)。但是DeepSeek在1月份的時(shí)候橫空出世,它們的推理能力非常的強(qiáng)。

推理能力在當(dāng)時(shí)也是討論的其中一個(gè)方向,但是因?yàn)镸eta本身的生態(tài),它們更看重多模態(tài),沒(méi)有重點(diǎn)去做推理。但是當(dāng)DeepSeek出現(xiàn)了以后,那時(shí)我實(shí)際上已經(jīng)離開(kāi)了Llama的團(tuán)隊(duì),不過(guò)據(jù)說(shuō)當(dāng)時(shí)他們有在討論說(shuō)是不是要重新把推理的地方撿起來(lái),但這個(gè)地方可能優(yōu)先級(jí)上有一些沖突,加上時(shí)間也非常的有限,就導(dǎo)致大家加班加點(diǎn)地做了很多的嘗試,非常得忙。我覺(jué)得DeepSeek的出現(xiàn)肯定是造成了公司里面資源還有優(yōu)先級(jí)管理上的一些混亂。

還有一點(diǎn),我覺(jué)得Llama 1~3整個(gè)模型的架構(gòu)和組織的架構(gòu),是延續(xù)了一開(kāi)始的設(shè)計(jì)。但是因?yàn)長(zhǎng)lama 3的成功,大家就希望Llama 4能夠更進(jìn)一步,能夠做一些更大的工程。那這個(gè)時(shí)候可能出現(xiàn)了一些問(wèn)題,我的觀察就是公司比較高層的,像副總裁、資深總監(jiān)這個(gè)層面,他們很多人是比較傳統(tǒng)的基礎(chǔ)架構(gòu)、計(jì)算機(jī)視覺(jué)背景,可能自然語(yǔ)言處理背景的都比較少。

所以可能他們技術(shù)層面對(duì)于AI原生技術(shù)或者是大語(yǔ)言模型這些東西就沒(méi)有一個(gè)深度的理解和認(rèn)識(shí)。真正懂行的,可能是下面具體做事的一些博士,尤其是我們非常驕傲的是,華人的博士都是技術(shù)非常扎實(shí)的。但是他們獲得的話語(yǔ)權(quán),或者說(shuō)在公司內(nèi)部的資源沒(méi)有那么多。所以說(shuō)可能不知什么緣故就造成一種外行管理內(nèi)行的一些局面出現(xiàn)。

因?yàn)镺penAI的o1系列和DeepSeek的出現(xiàn),讓Meta在2025年年初亂了陣腳。于是,高層臨時(shí)讓FAIR的研究團(tuán)隊(duì)去支援Llama 4的研發(fā),或者可以直接說(shuō)是去“救火”,而這個(gè)“救火團(tuán)隊(duì)”就是田淵棟帶隊(duì)的。

田淵棟

前Meta基礎(chǔ)AI研究(FAIR)團(tuán)隊(duì)研究總監(jiān):

我覺(jué)得現(xiàn)在很大的一個(gè)教訓(xùn)就是,做這樣的項(xiàng)目不能讓不懂的人來(lái)做整個(gè)的領(lǐng)導(dǎo)者或者做整個(gè)的規(guī)劃。如果有些東西出了問(wèn)題的話,應(yīng)該是大家說(shuō):ok,我們不能在這個(gè)時(shí)候發(fā)布,我們?cè)偻笸?。?yīng)該是采用一種,我拖到什么時(shí)候結(jié)束能夠正常運(yùn)作才發(fā)布的階段。而不能說(shuō)把deadline先定好,不然的話有很多事情是做不好的。

我覺(jué)得我們組里面當(dāng)時(shí)很多人非常累,比如說(shuō)像我是在加州,因?yàn)槲矣袔讉€(gè)團(tuán)隊(duì)成員在東部時(shí)區(qū),他們晚上12點(diǎn)給我打電話,他們那邊已經(jīng)3點(diǎn)鐘了,還在干活,所以非常的辛苦。為什么他們那么辛苦呢?是因?yàn)閐eadline壓得很緊。比如說(shuō)我們的deadline就是要計(jì)劃在某一天要發(fā)布,項(xiàng)目管理就需要從后往前倒退,然后看2月底或者3月初一定要做什么事情、3月底要做什么事情。

但如果你在做這些事情的時(shí)候,你發(fā)現(xiàn)這個(gè)模型這方面不行,或者說(shuō)數(shù)據(jù)有什么問(wèn)題,在這種情況下,我覺(jué)得有一個(gè)很大的問(wèn)題就是,你怎么樣能夠讓大家因?yàn)槟氵@句話停下來(lái)。就比如說(shuō),我說(shuō)這個(gè)數(shù)據(jù)有問(wèn)題,不行,我這個(gè)數(shù)據(jù)不能用,我們得換一個(gè)數(shù)據(jù)。那這樣的話就多出事了,我們得把整個(gè)事情往后延一個(gè)星期、兩個(gè)星期。但這個(gè)事情能不能做到是一個(gè)很大的問(wèn)題。如果在很強(qiáng)的deadline壓力之下,最后結(jié)果就是這事情做不了,或者說(shuō)大家沒(méi)有辦法去提出異議,那這樣的話最后的質(zhì)量就會(huì)變得很差。這是一個(gè)比較大的問(wèn)題。

陳茜

硅谷101聯(lián)合創(chuàng)始人:

為什么Meta會(huì)有那么強(qiáng)的壓力在deadline上面呢?因?yàn)殚_(kāi)源模型,其實(shí)它已經(jīng)是第一了。當(dāng)然,DeepSeek在年初的時(shí)候出來(lái),大家都沒(méi)有意料的到。但是為什么它有那么強(qiáng)的deadline說(shuō)我一定要在這個(gè)時(shí)候把這個(gè)東西推出來(lái)?

田淵棟

前Meta基礎(chǔ)AI研究(FAIR)團(tuán)隊(duì)研究總監(jiān):

應(yīng)該說(shuō)有個(gè)上面高層定下的deadline,但這個(gè)我就不方便說(shuō)了,可能能你要去問(wèn)一下相關(guān)的人,懂的都懂。

我們?cè)谶@里基本上能有一些答案了,從Llama 3開(kāi)始,“將AI產(chǎn)品化”這樣的路線就已經(jīng)制定,整個(gè)模型注重多模態(tài)和應(yīng)用、忙于整合應(yīng)用和業(yè)務(wù),但卻忽略了推理和更前沿的技術(shù)研發(fā)。這讓天平另一邊的FAIR團(tuán)隊(duì)不得不跨組來(lái)“救火”,就這樣,天平失衡了。

田淵棟

前Meta基礎(chǔ)AI研究(FAIR)團(tuán)隊(duì)研究總監(jiān):

但實(shí)際情況其實(shí)是因?yàn)榍把啬P偷母?jìng)爭(zhēng)太激烈了,所以基本上很難真的去用FAIR這邊的一些文章。雖然有些文章是被用到了,但是我們?cè)诮涣鞯倪^(guò)程中還是會(huì)存在一些問(wèn)題。我當(dāng)時(shí)就是在FAIR的時(shí)候,我有時(shí)候Ping(發(fā)信息給)GenAI的人,他們都不理我,這是什么情況?但是真的我去了GenAI之后我會(huì)覺(jué)得,確實(shí)我也沒(méi)法理他們(FAIR研究員們)。

因?yàn)樘α?,比如說(shuō)我半小時(shí)不看手機(jī),可能就有20條、30條的消息要去看,有很多的人要找,有很多的事情要決定。所以我也能理解了,在GenAI這樣的環(huán)境下,很難有比較長(zhǎng)期的思考過(guò)程。

而扎克伯格是如何修復(fù)這個(gè)失衡的天平呢?他直接空降了一個(gè)特種部隊(duì):由Alex Wang帶隊(duì)的TBD團(tuán)隊(duì)。

04 空降“新王”:28歲Alex Wang獲“無(wú)限特權(quán)”

Meta的AI業(yè)務(wù)架構(gòu)如今再一次重組之后,高層也經(jīng)歷了一系列的動(dòng)蕩。

Alex Wang帶領(lǐng)幾十位高薪聘請(qǐng)來(lái)的頂級(jí)研究員,單獨(dú)成立了這個(gè)在Meta內(nèi)部擁有無(wú)限特權(quán)和優(yōu)先級(jí)別的特別小組TBD。TBD,F(xiàn)AIR和GenAI一起組成Meta Superintelligence Labs(MSL部門(mén)),直接匯報(bào)給Alex,而Alex直接匯報(bào)給扎克伯格。

這也意味著,F(xiàn)AIR的Yann LeCun如今也匯報(bào)給Alex,而Joelle Pineau此前被要求匯報(bào)給GenAI組的負(fù)責(zé)人Ahmad。

我們看到,Joelle已經(jīng)在今年5月離職,去了Cohere做首席AI官;而Ahmad說(shuō)實(shí)話已經(jīng)很久沒(méi)有什么聲音了,也沒(méi)有被任命負(fù)責(zé)任何重要的項(xiàng)目;而CPO Chris Cox也被Alex搶了風(fēng)頭,排除在了AI團(tuán)隊(duì)的直接領(lǐng)導(dǎo)者之外。

所以現(xiàn)在的架構(gòu)就是,28歲的Alex一人獨(dú)大的局面。

我們聽(tīng)到過(guò)Meta內(nèi)部各種對(duì)Alex和他領(lǐng)導(dǎo)的這支極度有特權(quán)小組的不滿,包括TBD團(tuán)隊(duì)里的人可以三年不用做績(jī)效考評(píng)、可以不理不回其它任何VP的信息、Meta AI的所有paper都要給TBD里面的人去審核才能給發(fā)表。

要知道,TBD里面不少人比較年輕,這是讓很多資深的研究員非常不滿, 反正就是各種內(nèi)部政治斗爭(zhēng)感覺(jué)又要起來(lái)一波。

但不可否認(rèn)的是,特權(quán)的等號(hào)后面是成績(jī)。這個(gè)成績(jī)對(duì)于扎克伯格來(lái)說(shuō),不僅僅是Make Llama Great Again(讓Meta再次偉大),而是“Meta has to win”(Meta必須贏)。

在這場(chǎng)AI競(jìng)賽中,目前的這場(chǎng)重組,也許對(duì)于扎克伯格來(lái)說(shuō)是最后的一次,也是最重要的機(jī)會(huì)。而Alex在團(tuán)隊(duì)內(nèi)部郵件中就寫(xiě)到他將做出的三個(gè)改變:

1.集中TBD和FAIR團(tuán)隊(duì)的核心基礎(chǔ)研究力量;

2.提升產(chǎn)品和應(yīng)用研發(fā)的融合、且繼續(xù)以產(chǎn)品為模型聚焦點(diǎn);

3.成立一個(gè)核心基建團(tuán)隊(duì)來(lái)支持研究押注。

Tom Zhang

硅谷資深人才專家:

第一條就是把基礎(chǔ)研究、TBD Lab和FAIR更集中化,就讓它兩個(gè)更緊密的去結(jié)合。所以這回裁掉的一些研究人員,郵件上也說(shuō),可能他們的項(xiàng)目沒(méi)有那么高的影響力。你再做一些前沿的研究,但和我們現(xiàn)在沒(méi)有關(guān)系,因?yàn)楹芏嗲把匮芯渴歉叨瘸橄蟮?,是從?shù)學(xué)的角度,從很多理論的角度,它其實(shí)和工程的離得比較遠(yuǎn)。

第二個(gè)就是把產(chǎn)品和模型更緊密地結(jié)合,和Alex Wang一起進(jìn)來(lái)的人,有一個(gè)就是GitHub的原來(lái)CEO。等于扎克伯格同時(shí)引進(jìn)了兩個(gè)高端人才,一個(gè)是Alex Wang,統(tǒng)一來(lái)說(shuō)就是管模型的;一個(gè)GitHub前CEO Nat Friedman,他是偏產(chǎn)品的,因?yàn)楫a(chǎn)品才能給這個(gè)模型更好的反饋,在用的過(guò)程中進(jìn)行飛輪效應(yīng)。

第三條是組建一個(gè)統(tǒng)一的核心基礎(chǔ)設(shè)施(Infra)團(tuán)隊(duì),就把管卡的數(shù)據(jù)中心團(tuán)隊(duì)更集中化。過(guò)去很可能是很散的,好幾個(gè)領(lǐng)導(dǎo)都在,你要卡你得來(lái)申請(qǐng)?,F(xiàn)在卡這個(gè)事也是統(tǒng)一來(lái)管理。所以這個(gè)郵件寫(xiě)得還是挺清楚的。

而Alex能否撐得起扎克伯格的押注呢,也許很快我們就會(huì)有答案。

總結(jié)一下,Meta在Llama前三代都還是領(lǐng)先的開(kāi)源模型,引領(lǐng)著開(kāi)源派去對(duì)抗OpenAI和谷歌Gemini這樣的閉源派。

然而,在Llama 3大獲成功之后,公司高層急于將AI結(jié)合產(chǎn)品化,在規(guī)劃路線的時(shí)候用“產(chǎn)品驅(qū)動(dòng)研發(fā)”的思維,將Llama 4的升級(jí)聚焦在多模態(tài)等工程性能上,但卻錯(cuò)失了思維鏈(CoT)等推理上的前沿技術(shù)時(shí)間優(yōu)勢(shì)。

雖然當(dāng)時(shí)田淵棟等FAIR的AI科學(xué)家已經(jīng)在研究CoT了,等DeepSeek引發(fā)轟動(dòng)之后,又將FAIR的田淵棟團(tuán)隊(duì)臨時(shí)救火優(yōu)化Llama 4上的MoE架構(gòu),反而又中斷了CoT和推理上的研發(fā),導(dǎo)致AI前沿技術(shù)研究和產(chǎn)品工程這架天平徹底失衡。

在采訪過(guò)程中,我腦中不止一次閃過(guò)歷史上那些閃耀一時(shí)的前沿實(shí)驗(yàn)室:貝爾實(shí)驗(yàn)室、IBM Watson Research、HP實(shí)驗(yàn)室等等,但基本都因?yàn)闊o(wú)法平衡前沿科研和商業(yè)化而日益衰落,十多年歷史的FAIR,曾經(jīng)是一群理想化AI科學(xué)家的烏托邦之地,而如今又成了另一個(gè)商業(yè)化的犧牲品。

你認(rèn)為這場(chǎng)由Llama 4失敗引發(fā)的大重組,是Meta AI的最后機(jī)會(huì)嗎?歡迎在評(píng)論區(qū)留言告訴我們。

 
本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。