文|硅谷101
具身智能是2025年的最大的“泡沫”嗎?
年初,宇樹突然放大招,發(fā)布了5900美元的R1人形機(jī)器人。要知道,就在一年前,業(yè)內(nèi)普遍認(rèn)為人形機(jī)器人的成本底線還在2到3萬美元,宇樹這一招,相當(dāng)于把整個行業(yè)的價格預(yù)期直接打碎。
緊接著,F(xiàn)igure AI的估值從2024年的26億美元一路狂飆到390億美元,達(dá)到了15倍的增長。投資方名單讀起來像科技圈的奧斯卡頒獎典禮:微軟、OpenAI、英偉達(dá)、貝佐斯、英特爾、三星。

資本市場瘋狂押注,仿佛具身智能的未來近在咫尺。
但與此同時,特斯拉喊出要生產(chǎn)5000臺Optimus的豪言壯語,實際只組裝了大約1000臺就按下暫停鍵,面臨重新設(shè)計。馬斯克那句“特斯拉八成的價值將來自于Optimus”的豪言,在現(xiàn)實面前顯得有些尷尬。

這一冷一熱,實在是有點(diǎn)讓人困惑。具身智能到底發(fā)展到哪一步了?本篇文章就將從算法、硬件、數(shù)據(jù)、資本以及主要大玩家路線等等這幾個方向一一給大家展開解讀。
01、具身智能是什么?為什么2025年爆發(fā)?
在聊行業(yè)現(xiàn)狀之前,先說清楚什么是具身智能。
如果說ChatGPT是“會說話”的AI,那具身智能就是“會動手”的AI。它的核心是VLA,Vision-Language-Action,視覺-語言-動作模型。它把三個東西統(tǒng)一到一個神經(jīng)網(wǎng)絡(luò)里:Vision(視覺):看到當(dāng)前的場景;Language(語言):理解任務(wù)目標(biāo)和常識;Action(動作):輸出具體的控制指令。

簡單說就是三個能力:看得懂環(huán)境、聽得懂指令、做得到動作。
這和傳統(tǒng)機(jī)器人有什么不同?
打個比方,傳統(tǒng)工業(yè)機(jī)器人就像只會背固定臺詞的演員,你給它編好程序,它就按部就班執(zhí)行;但具身智能機(jī)器人更像會即興表演的演員,它能理解環(huán)境變化,自主做決策。
比如你讓它疊毛巾,傳統(tǒng)機(jī)器人需要毛巾每次擺放位置完全一樣。但具身智能機(jī)器人能識別:哦,這次毛巾皺了、偏了,那我調(diào)整一下動作軌跡,照樣能疊好。
Dyna Robotics是硅谷炙手可熱的具身智能公司,一年前剛成立,如今A輪融資達(dá)到1.2億美元,估值6億美元,投資人包括英偉達(dá)。而“疊毛巾”這個任務(wù)正是讓Dyna最先火出圈的demo。

York Yang Dyna Robotics聯(lián)合創(chuàng)始人
VLA簡單來說就是我們拿了大模型領(lǐng)域VLM作為“backbone”(核心),但是我們會在最終輸出結(jié)果的時候,把這個結(jié)果轉(zhuǎn)化成在機(jī)器人領(lǐng)域可用的action(動作)。action(動作)直觀理解就是,比如說我要把這個手臂移動到某一個坐標(biāo)點(diǎn)的這些命令。
VLA其實大家詬病最多的是:為什么我們需要L(Language,即“語言”)?因為在過去傳統(tǒng)的機(jī)器人算法里面,很多都是純基于視覺。但是你仔細(xì)去想,其實你大腦其實會產(chǎn)生類似于語言的東西,去告訴你在一個長線任務(wù)中,到底你第一步做什么,第二步做什么。
L的作用就在于,對于一些非常復(fù)雜的任務(wù),它是可以通過在大語言上面已經(jīng)訓(xùn)練出來很多邏輯性的東西(去處理),比如說你要喝水,它就會知道你需要找杯子或者找瓶子。這個是通過大語言模型已經(jīng)直接可以給你的一些東西。利用VLA的主要目的,其實就是如何把Language(語言)跟Vision(視覺)夠更好地結(jié)合起來,否則你如果只有Vision(視覺),你能做的任務(wù)可能就都是短線的,你做不了任何長線的、需要去做推理的一些任務(wù),所以這是我們?yōu)槭裁捶浅W⒌匾胝Z言這部分的主要原因。
這就是質(zhì)的飛躍:機(jī)器人不再是執(zhí)行固定程序的機(jī)械臂,而是通過視覺-語言-動作的集合,能理解、能規(guī)劃、能適應(yīng)的智能體。
具身智能不是新概念,為什么2025年突然爆發(fā)?有這三個因素。
第一,大模型本身已經(jīng)趨近于成熟。
無論是OpenAI還是其他公司近期發(fā)布的大模型,能力提升已更多體現(xiàn)為增量式演進(jìn),而非早期從GPT-3.5到GPT-4那樣的跨越式躍遷。在這一背景下,大模型的整體能力正在趨于穩(wěn)定,且已經(jīng)足以作為具身智能系統(tǒng)的可靠基礎(chǔ)能力層。
ChatGPT證明了,大語言模型能理解復(fù)雜指令、做推理規(guī)劃。這套能力可以遷移到機(jī)器人上:你說“幫我做早餐”,它能規(guī)劃出“先拿雞蛋、再打蛋、然后開火煎”這樣的多步驟序列。

第二,算力價格腰斬再腰斬。隨著芯片廠商不斷推出性能更強(qiáng)的新一代芯片,等效算力的單位成本呈現(xiàn)長期下降趨勢,往往每隔幾年,獲得同等算力所需的成本就會降至此前的一半。
2023年,租一張NVIDIA H100 GPU還是天價?,F(xiàn)在,云服務(wù)的算力價格戰(zhàn)愈演愈烈,訓(xùn)練大模型的成本大幅降低。以前只有頭部公司玩得起的游戲,現(xiàn)在創(chuàng)業(yè)公司也能上桌。

第三,硬件供應(yīng)鏈成熟。
機(jī)器人硬件整體的零部件成熟度已經(jīng)相對較高。尤其是在過去一年人形機(jī)器人熱潮的推動下,大量資本和工程資源被投入到核心基礎(chǔ)部件的研發(fā)中,包括電機(jī)、減速器等關(guān)鍵組件,使得相關(guān)技術(shù)持續(xù)成熟的同時,成本也在不斷下降。
宇樹直接把價格打到5900美元,此前,行業(yè)普遍認(rèn)為2-3萬美元的區(qū)間已經(jīng)能實現(xiàn)規(guī)?;a(chǎn)。成本曲線的陡降,讓商業(yè)化不再是天方夜譚。
這三股力量疊加,把具身智能從實驗室推向了商業(yè)化的前夜。但這不是盲目的樂觀,而是基于技術(shù)成熟度的理性判斷。所以,目前具身智能的能力邊界在哪里,它能做什么?
02、機(jī)器人現(xiàn)在能做什么?
Chapter 2.1 已經(jīng)能做的事情
我們先來說說能做到的事情:工業(yè)和商業(yè)場景已經(jīng)有實際應(yīng)用了。
疊毛巾、疊衣服,聽起來簡單,但Dyna的機(jī)器人能做到24小時疊700條毛巾,成功率99.4%。這在酒店、洗衣房已經(jīng)是實打?qū)嵉纳a(chǎn)力。而且他們的基礎(chǔ)模型里面包含了各種各樣的場景數(shù)據(jù),像切菜、切水果,準(zhǔn)備食物,早餐清掃和物流分揀。

寶馬集團(tuán)BMW的工廠里,F(xiàn)igure的機(jī)器人在做簡單裝配和物料搬運(yùn)。Agility Robotics的Digit在倉儲物流場景搬箱子。1X也將向瑞典巨頭EQT交付最多1萬臺1X Neo人形機(jī)器人,主要應(yīng)用于制造、倉儲、物流等工業(yè)場景。更別提亞馬遜已經(jīng)部署了100萬臺專用機(jī)器人,幾乎要超過其156萬人類員工的數(shù)量。
這些都不是Demo,是真實在跑的商業(yè)項目。這就是“理性前行”——不求全能,但求實用。
Chapter 2.2:正在攻克的任務(wù)
目前有什么還做不到,頭部公司正在攻克的任務(wù)呢?比如說:中等難度的任務(wù),像做早餐。
這是個“長線任務(wù)”,需要規(guī)劃多個步驟:拿食材、切菜、擺盤、開火、翻炒。每一步都要精準(zhǔn)執(zhí)行,還得控制力度,不能把雞蛋捏碎,也不能切菜切到手。Dyna最新的demo顯示已經(jīng)攻克了做早餐這個長線任務(wù)。

而Figure也展示過兩臺機(jī)器人協(xié)同工作的Demo,一臺遞工具,一臺操作。這在家用場景很有用,但穩(wěn)定性還在打磨。
Chapter 2.3:還做不到的事情
而最難的是家務(wù)。因為每個家庭環(huán)境都不一樣。光照變化、物品擺放、家庭成員走動,這些都是“非結(jié)構(gòu)化環(huán)境”的挑戰(zhàn)。
相對來說,工廠是“結(jié)構(gòu)化環(huán)境”,光線固定、物品位置固定、流程標(biāo)準(zhǔn)化。但家里完全是另一回事。而且家務(wù)還有個致命要求:零容錯。機(jī)器人在工廠打碎個零件,損失可控。在家里打碎碗、傷到人,那就是事故。

王浩 自變量機(jī)器人CTO
比如說機(jī)器人執(zhí)行任務(wù)的時候,桌布上有一個小的褶皺,你的杯子可能放置不穩(wěn),可能有一個透明物體反光,它剛好干擾了相機(jī)等等。這些微小的物理變化,人類其實可以憑直覺和豐富的經(jīng)驗去瞬間適應(yīng)的,但由于非常依賴于數(shù)據(jù)驅(qū)動,AI大模型它面臨這些新的挑戰(zhàn),它不一定能真正去感受到。
所以,機(jī)器人進(jìn)家庭,技術(shù)門檻比進(jìn)工廠高得多。但這不意味著遙不可及。

York Yang Dyna Robotics聯(lián)合創(chuàng)始人
我們是覺得,最開始肯定是在我們當(dāng)前在開拓的一些市場,比如商用服務(wù),商用的一些人工的部分,就是和人工一起去完成一些任務(wù),這樣的一些場景。但是我們覺得家用其實也沒有那么遙遠(yuǎn),并不需要完整的、非常通用的AGI。你可能只需要幾個任務(wù)就可以進(jìn)入到家庭的場景里,先讓機(jī)器人在家里面干起活來,然后逐漸地通過模型的迭代讓它產(chǎn)生更多的能力。
當(dāng)然我們的硬件成本降到普通家庭可承擔(dān)的范圍內(nèi),我們可能就會優(yōu)先,比如說我先以疊衣服的功能賣給家庭,然后逐漸去拓展一些其他的功能。所以這個時間線應(yīng)該也不遙遠(yuǎn),可能也就在1~2年左右。
這就是“理性前進(jìn)”——不是等到機(jī)器人變成科幻電影里的全能管家再推向市場,而是從一個明確的、用戶真正需要的功能切入,逐步迭代。
03、2025年的技術(shù)突破
雖然挑戰(zhàn)重重,但2025年確實有幾個值得關(guān)注的技術(shù)突破。業(yè)內(nèi)人士很坦誠地告訴我們,每一個突破都不是革命性的,但都是實實在在的進(jìn)步。
Chapter 3.1 突破點(diǎn)1:雙系統(tǒng)架構(gòu)流行起來
很多公司開始采用所謂“System 1 + System 2”的架構(gòu)。

System 1是“快思考”,負(fù)責(zé)反射性動作,比如抓取、移動,參數(shù)量小,響應(yīng)快,可能只有8000萬參數(shù)。
System 2是“慢思考”,負(fù)責(zé)復(fù)雜規(guī)劃,比如“做早餐”這種多步驟任務(wù),參數(shù)量大,可能有70億參數(shù)。
這種分工很像人類大腦:你伸手接球是本能反應(yīng),但規(guī)劃一頓飯需要仔細(xì)思考。
Figure AI的Helix模型就是這個架構(gòu)的代表作。它們在和OpenAI“分手”后,兩周內(nèi)迅速推出這個自研模型,創(chuàng)新性地用單一神經(jīng)網(wǎng)絡(luò)控制整個上半身的35個自由度,還能同時控制兩臺機(jī)器人協(xié)作。
這種架構(gòu)的成功,證明了機(jī)器人基礎(chǔ)模型和大語言模型的Scaling Law可能不一樣——不是越大越好,而是要找到合適的參數(shù)分配策略。
Chapter 3.2 突破點(diǎn)2:合成數(shù)據(jù)的革命
機(jī)器人數(shù)據(jù)為什么這么貴?原因也很簡單:因為人類一天只有24小時,收集真實操作數(shù)據(jù)太慢太貴。

NVIDIA的解決方案是:用模擬器生成合成數(shù)據(jù)。他們展示過,11小時內(nèi)生成78萬條操作軌跡。相當(dāng)于6500小時或連續(xù)九個月的人類演示數(shù)據(jù)。雖然合成數(shù)據(jù)和真實數(shù)據(jù)有差距,但至少解決了“數(shù)據(jù)荒”的燃眉之急。
但這里有個關(guān)鍵的技術(shù)權(quán)衡。
York Yang
Dyna Robotics聯(lián)合創(chuàng)始人
因為我們之前也和挺多做大語言模型的這些人聊過,他們已經(jīng)發(fā)現(xiàn),語言方向的數(shù)據(jù),哪怕用很多低質(zhì)量數(shù)據(jù),比如一堆文本,中間插了一段廣告,然后再是接著文本,就這樣的數(shù)據(jù)它一樣能訓(xùn)練出比較好的模型。因為模型它看的數(shù)據(jù)足夠多之后,它自動就會過濾掉廣告。但是機(jī)器人當(dāng)前我們覺得scaling(規(guī)?;└嗟氖莵碜杂诒容^高質(zhì)量的數(shù)據(jù)。你如果囊括了很多很繁雜的數(shù)據(jù)在里面,機(jī)器人模型可能就不知道我要pay attention(注意力集中)在哪一個地方,所以最終它其實出來的效果并沒有那么好。
Chapter 3.3 突破點(diǎn)3:跨機(jī)器人泛化能力
Physical Intelligence的π0模型、開源的OpenVLA模型都能控制多種不同的機(jī)器人。同一套模型或策略,不需要為每一種機(jī)器人重新訓(xùn)練,就能夠在不同形態(tài)、不同硬件配置的機(jī)器人上有效工作,這就叫跨機(jī)器人泛化能力。

這很重要。以前每種機(jī)器人都要單獨(dú)訓(xùn)練模型,成本高昂?,F(xiàn)在一個模型適配多種機(jī)器人,數(shù)據(jù)可以共享,成本大幅降低。
但技術(shù)難點(diǎn)也很明顯:不同機(jī)器人的動作空間差異巨大,手臂長短不一、關(guān)節(jié)數(shù)量不同,怎么讓一個模型都能控制好?
這種在完全陌生環(huán)境也能工作的能力,不是100%完美,但已經(jīng)是實質(zhì)性的進(jìn)步。
Chapter 3.4 突破點(diǎn)4:多機(jī)協(xié)同
Figure展示過用單一神經(jīng)網(wǎng)絡(luò)協(xié)調(diào)兩臺機(jī)器人協(xié)作。創(chuàng)新性地用單一神經(jīng)網(wǎng)絡(luò),控制整個上半身的35個自由度,同時還能控制兩臺機(jī)器人協(xié)作。

聽起來簡單,實際上難度很高。兩臺機(jī)器人要互相配合,時序、力度、位置都要精準(zhǔn)同步。這在未來工廠場景會很有用,但現(xiàn)在還處于早期驗證階段。
這些技術(shù)突破,沒有一個是顛覆性的,但每一個都在扎實推進(jìn)。這正是2025年的特點(diǎn):不再追求炫酷的Demo,而是在可驗證、可量化、可復(fù)現(xiàn)的方向上穩(wěn)步前進(jìn)。
技術(shù)突破是一方面,但行業(yè)里還有幾座大山?jīng)]翻過去。清楚認(rèn)識這些難題,恰恰是“理性前進(jìn)”的前提,也讓現(xiàn)在的具身智能來到了大爆發(fā)的前夜。
04、沒解決的核心問題
Chapter 4.1 難題1:數(shù)據(jù)困境
首先,是數(shù)據(jù)困境。ChatGPT訓(xùn)練用了萬億級token,相當(dāng)于把整個互聯(lián)網(wǎng)的文字都喂給它了。

但機(jī)器人操作數(shù)據(jù)極度稀缺。Google訓(xùn)練RT-2模型,花了17個月在真實廚房收集13萬條數(shù)據(jù),場景泛化能力依然有限。
為什么機(jī)器人數(shù)據(jù)這么難收集?因為需要真實機(jī)器人在真實環(huán)境操作,每一條數(shù)據(jù)都要花錢花時間,出錯還可能損壞設(shè)備。這不像文本數(shù)據(jù),爬蟲跑一跑就有了。所以大多數(shù)機(jī)器人基礎(chǔ)模型仍依賴于少量真實數(shù)據(jù)加大量模擬合成數(shù)據(jù)加強(qiáng)化學(xué)習(xí)/自監(jiān)督方法。

柯麗一鳴 Physical Intelligence研究員
一個人的一生假設(shè)是100年的話,大概我們很粗略的算就是100萬個小時,我覺得現(xiàn)在在我的目所能及或者我公開信息看到的范圍里,好像沒有人有100萬小時的數(shù)據(jù)集,我是這么猜想的。
我會覺得什么時候我們能夠收到100萬小時等同于一個人一生的物理經(jīng)驗的數(shù)據(jù),我覺得可能我們才開始后面的探索。
如果說數(shù)據(jù)是機(jī)器人的“石油”,但現(xiàn)在這口井還沒打出來。
Chapter 4.2 難題2:Sim-to-Real Gap
在虛擬世界訓(xùn)練機(jī)器人很便宜,可以同時跑幾萬個模擬器。但虛擬世界永遠(yuǎn)不等于真實世界。就像你玩賽車游戲很厲害,不代表真的會開F1。

真實世界的摩擦力、柔軟度、光線變化太復(fù)雜,仿真只能還原部分真實物理特性。剩下的就是機(jī)器人從模擬器到真實世界“水土不服”的根源。
NVIDIA的Genesis和Isaac模擬器在努力縮小這個gap(差距),但完全消除還需要時間。
Chapter 4.3 難題3:Embodiment Gap
人手有27個關(guān)節(jié),能感知壓力、溫度、質(zhì)地。機(jī)器人的靈巧手通常只有15-22個關(guān)節(jié),傳感器也沒那么精細(xì)。即使完美模仿人類的動作軌跡,效果也不同。人類能輕柔地拿起雞蛋,機(jī)器人可能一用力就捏碎。

York Yang Dyna Robotics聯(lián)合創(chuàng)始人
第一,人類的手和機(jī)器人的手,如果你想讓它這個能力遷移得很好,需要做得非常接近。這也是為什么現(xiàn)在有好多人在做很靈巧的靈巧手,非常接近人的自由度,這件事本身是一件非常困難的事情。
第二,但你再接近,它也不是完全一樣。所以在機(jī)器人的數(shù)據(jù)和人的數(shù)據(jù)中間還是會有一個鴻溝,就我們所謂的embodiment gap,這個embodiment gap在當(dāng)前學(xué)術(shù)界也好、工業(yè)界也好,大家都公認(rèn)是一個比較難解決的問題。所以這樣的數(shù)據(jù)遷移的效率會比較低,哪怕你采集了很多數(shù)據(jù),如果只有30%或者50%可用,你的總數(shù)量就會需要去乘以可能性的數(shù)字,所以這是它的一定的局限性。
這就意味著,特斯拉想用YouTube上海量人類視頻訓(xùn)練Optimus的策略,面臨巨大的技術(shù)挑戰(zhàn)。這也是為什么特斯拉在生產(chǎn)了1000臺后暫停重新設(shè)計。理想很美好,現(xiàn)實很骨感。
Chapter 4.4 難題4:可靠性
ChatGPT回答錯了,用戶笑笑就過去了。機(jī)器人動作錯了,可能砸壞東西、傷到人。這是質(zhì)的區(qū)別。

具身智能必須達(dá)到極高的可靠性,才能真正走進(jìn)工廠、走進(jìn)家庭。這個標(biāo)準(zhǔn)比大語言模型嚴(yán)苛得多。
Chapter 4.5 難題5:成本困境
目前人形機(jī)器人價格需要降到2萬美元左右,才能在物流等場景形成足夠吸引力。
但價格下降需要規(guī)?;a(chǎn)。規(guī)?;a(chǎn)需要大量訂單。大量訂單需要價格足夠低。
這是個循環(huán)困境,需要有人先打破僵局。宇樹的5900美元定價就是在嘗試打破這個僵局,但能否引發(fā)價格戰(zhàn),帶動整個行業(yè)降本,還需要觀察。

認(rèn)清這些難題,不是悲觀,而是理性。正是因為目前初創(chuàng)公司們都很實在地承認(rèn)這些瓶頸存在,具身智能才來到了爆發(fā)的前夜。
05、主要玩家和技術(shù)路線
Chapter 5.1 硬件巨頭:Tesla、Figure
這一派公司包括了特斯拉和Figure,他們的策略是軟硬件一體化,打造數(shù)據(jù)閉環(huán)。
Tesla利用FSD自動駕駛技術(shù)的積累,把視覺感知、路徑規(guī)劃的能力遷移到Optimus上,還能用工廠的生產(chǎn)線積累數(shù)據(jù)。前工程主管Milan Kovac說得很直白:“我們只是從輪子上的機(jī)器人變成長著腿的機(jī)器人?!?/p>

但現(xiàn)實比預(yù)期復(fù)雜。5000臺的目標(biāo)只完成了五分之一,就不得不暫停重新設(shè)計。這說明即使是特斯拉這樣的巨頭,在embodiment gap面前也要低頭。
Figure則在和OpenAI“分手”后,獨(dú)立開發(fā)了Helix模型,自己掌控技術(shù)路線。兩周內(nèi)推出的Helix模型,展示了他們確實有技術(shù)實力。15倍的估值漲幅,也證明資本市場對這條路線的認(rèn)可。
但他們真正商業(yè)化部署的也就幾十臺。Demo很精彩,規(guī)?;€在路上。第二派就是我們剛才提到的Physical Intelligence和Skuid AI。
Chapter 5.2 AI公司:PI和Skild AI
與多家同時押注硬件的機(jī)器人初創(chuàng)公司不同,這些公司的策略是模型先行,跨平臺適配。
Physical Intelligence的π0模型不綁定特定硬件,能適配多種機(jī)器人。他們的邏輯是:先把模型能力做強(qiáng),硬件可以后續(xù)選擇最優(yōu)方案。

而另外一家則是Skild AI,一家專注于構(gòu)建機(jī)器人基礎(chǔ)模型的軟件公司。Skild AI核心方向同樣是打造一種與具體機(jī)器人形態(tài)無關(guān)的通用基礎(chǔ)模型,可根據(jù)不同機(jī)器人平臺和應(yīng)用場景進(jìn)行適配與定制。
今年7月,Skild AI發(fā)布了其通用機(jī)器人系統(tǒng)Skild Brain,并公開演示視頻,展示機(jī)器人完成拿取餐具、上下樓梯等操作能力。近期軟銀與英偉達(dá)正計劃對它投資10億美元,把它的估值提升到140億美元。
Chapter 5.3 生態(tài)平臺:NVIDIA、Google
第三類是主打生態(tài)的平臺。
NVIDIA提供模擬器和算力基礎(chǔ)設(shè)施,推出GR00T N1并開源,但你要用就得用全套NVIDIA生態(tài)。Google則在學(xué)術(shù)研究上持續(xù)投入,RT系列模型影響了整個學(xué)術(shù)界。

他們?yōu)檎麄€行業(yè)提供“水電煤”。誰能制定行業(yè)標(biāo)準(zhǔn),誰就掌握了生態(tài)控制力。
這三種路線,都在前進(jìn)。沒有哪一派已經(jīng)占據(jù)絕對優(yōu)勢,大家都在試錯、迭代、調(diào)整。
06、總結(jié)與展望
未來還未來,已經(jīng)不遙遠(yuǎn)
回到開頭的問題:具身智能是泡沫還是未來?
答案是:2025年,具身智能正在從“先鋒亮相”轉(zhuǎn)向“理性前行”。
技術(shù)上,大模型+機(jī)器人的結(jié)合已經(jīng)跑通,但遠(yuǎn)未成熟。數(shù)據(jù)、泛化、可靠性這些核心難題還沒解決。
如果用“GPT時刻”來類比,自變量機(jī)器人CTO王浩認(rèn)為,我們現(xiàn)在是GPT-2的水平。

王浩 自變量機(jī)器人CTO
我會覺得現(xiàn)在就是在GPT-2的階段,其實我們現(xiàn)在基本上已經(jīng)知道規(guī)模化它是唯一的一個可靠路徑了,所以我們就是要在這個階段去瘋狂地積累數(shù)據(jù),提升模型規(guī)模,同時去搭建真實具身的這種基礎(chǔ)設(shè)施。我的預(yù)測會到1~2年的時間,我們完全可以達(dá)到GPT-3的水平。
注意,是GPT-3,不是GPT-4。這就是毫不花哨的判斷。由于研究員們看到了這種規(guī)?;瘞淼奶嵘?,所以路徑和目標(biāo)更加明確,也更加唯一。
而在商業(yè)上,工業(yè)場景開始試點(diǎn),倉儲、制造、服務(wù)業(yè)都有落地案例。但大規(guī)模商用可能還需要2-3年時間。

York Yang Dyna Robotics聯(lián)合創(chuàng)始人
我們自己的目標(biāo)是在明年我們至少希望在商用場景有比較大規(guī)模的部署。家用我們會擇機(jī)看,這個時間線應(yīng)該也不遙遠(yuǎn),可能也就在1~2年左右。
投資上,可以說泡沫和機(jī)會并存。有公司估值飆升,也有公司暫停生產(chǎn),也有公司錢燒光了而破產(chǎn)。
開源機(jī)器人公司K-Scale Labs融資失敗倒閉,F(xiàn)igure AI拿錢拿到手軟,這兩個極端同時存在,說明市場正在分化,雖然具身智能的長期趨勢確定,但短期波動劇烈。

而具身智能第一個“殺手級”應(yīng)用場景會是什么?
有可能是家務(wù)任務(wù),也可能是倉儲物流,或者是餐飲清潔服務(wù)。而無論是哪個場景,都已經(jīng)有重量級玩家在布局。具身智能不是“會不會發(fā)生”的問題,而是“什么時候發(fā)生”。
2025年,我們正站在這場革命的起點(diǎn)。行業(yè)不再只展示炫酷的Demo,而是開始腳踏實地驗證技術(shù)、打磨產(chǎn)品、尋找場景。
特斯拉暫停生產(chǎn),不是失敗,是在重新設(shè)計,尋找更可靠的路徑。
Figure AI估值飆升,不只是資本炒作,而是他們交出了Helix這樣的實質(zhì)成果。
Dyna從疊毛巾切入,不是格局小,而是在積累數(shù)據(jù)飛輪,培養(yǎng)模型的學(xué)習(xí)能力。
Physical Intelligence部分開源π0,不是不夠開放,而是在商業(yè)利益和技術(shù)分享之間找平衡。
這種在現(xiàn)有基礎(chǔ)上穩(wěn)步提升,恰恰是行業(yè)走向成熟的標(biāo)志。2025年,具身智能行業(yè)已經(jīng)從“畫大餅”,進(jìn)化到卷起袖子和面團(tuán)。這個餅,正在一點(diǎn)一點(diǎn),有分寸地,變成現(xiàn)實。


