四虎AV成人在线观看|免费免费特黄的欧美大片|人妻丝袜中文字幕一区三区|性爱一级二级三级|日本黄色视频在线观看免费|亚洲午夜天堂超碰大香蕉中出|国产日韩三级黄色AV一区二区三区|a片网站在线观看视频|人人AV播放日韩操在线|国产伦清品一区二区三区

正在閱讀:

AEB成強制性國家標(biāo)準(zhǔn),純視覺能通過考驗嗎?

掃一掃下載界面新聞APP

AEB成強制性國家標(biāo)準(zhǔn),純視覺能通過考驗嗎?

純視覺感知究竟解決了雷視融合感知路線的哪些問題?

文丨智駕網(wǎng) July

編輯|雨來

以激光雷達(dá)為代表的雷視融合方案和純視覺路線的誰優(yōu)誰劣伴隨著智駕從手寫規(guī)則到今天的端到端階段,不過如果拋棄算力、算法和大模型能力來單純對比激光雷達(dá)和純視覺的優(yōu)劣顯然是舍本逐末。在AEB即將成為國標(biāo)之際,目前的標(biāo)準(zhǔn)要求也遠(yuǎn)未到激光雷達(dá)與純視覺只能二選一的地步。

一紙新規(guī),再次將AEB話題引入輿論場。

5月,工業(yè)和信息化部發(fā)布《輕型汽車自動緊急制動系統(tǒng)技術(shù)要求及試驗方法》(征求意見稿),將自動緊急制動系統(tǒng)(AEB)從推薦性標(biāo)準(zhǔn)升級為強制性國家標(biāo)準(zhǔn),并計劃于2026年起分階段實施。該標(biāo)準(zhǔn)將替代現(xiàn)行國標(biāo)GB/T 39901-2021,征求意見截止日期即將在本月底(6月30日)結(jié)束。

這是目前智駕輔助功能中第一次上升為國家強制標(biāo)準(zhǔn),但它同時也引發(fā)了技術(shù)路線的爭議,如果強制安裝AEB是否意味著所有的車型都需要標(biāo)配激光雷達(dá)?

智駕網(wǎng)梳理了新國標(biāo)三大核心變化——

適用范圍擴(kuò)大:要求所有M1類乘用車(轎車、SUV、MPV等)和N1類輕型載貨汽車(總質(zhì)量≤3.5噸)強制裝備AEB系統(tǒng),覆蓋中國90%以上輕型車輛;

技術(shù)要求升級:新增對行人、自行車、踏板式兩輪摩托車等弱勢道路使用者的識別能力要求,并增加交叉路口、右轉(zhuǎn)跟車等復(fù)雜場景測試;

性能指標(biāo)提升:乘用車AEB激活范圍擴(kuò)大至10-80km/h,制動減速度要求從4.0m/s2提高到5.0m/s2,針對靜止前車的測試速度從30km/h提高到80km/h;

但在這些變化之中,值得注意的是,新國標(biāo)并未強制要求安裝特定的傳感器配置,其性能導(dǎo)向的特性也為多元技術(shù)路線留下了充分可討論的空間。

01.AEB爭議為何再起?

AEB的技術(shù)路線目前有毫米波雷達(dá)、純視覺和雷視融合三種。

當(dāng)前眾多車輛的AEB系統(tǒng)基于77GHz毫米波雷達(dá)實現(xiàn),在三種技術(shù)方案中,依靠毫米波雷達(dá)的這一方案,是最基礎(chǔ)的技術(shù)方案,同時成本最低,應(yīng)用廣泛,但缺點是易受環(huán)境干擾,極易失效。

純視覺方案,依賴攝像頭進(jìn)行感知,這種方案的弊端在于對靜止物體的識別存在局限性,也容易受到光線等環(huán)境干擾。

目前聲勢最盛的是多傳感器融合方案,毫米波雷達(dá)、激光雷達(dá)和攝像頭融合使用,弱點是成本更高。

不過當(dāng)下所說的純視覺方案其實也是攝像頭和毫米波的組合方案。

直觀來看,多傳感器雷視融合方案最佳,雖然成本相對更高,但AEB做為緊急狀態(tài)下的最后一道屏障,與安全相比,成本高一些無可厚非。

不過,不考慮算力、算法,單純對比傳感器多寡,一刀切地認(rèn)為擁有激光雷達(dá)就一定強于純視覺則有失偏頗。

在新國標(biāo)發(fā)布之際,行業(yè)也正經(jīng)歷一場關(guān)于AEB技術(shù)路線的激烈爭論。

激光雷達(dá)派:

有博主在社交媒體發(fā)文稱,純視覺方案尚未實現(xiàn)100km/h以上剎停能力,而融合激光雷達(dá)的方案已量產(chǎn)120km/h剎停能力。

他強調(diào):“對靜止車輛的空間感知需要150米的精準(zhǔn)測距”。

言下之意,純視覺無法實現(xiàn)150米距離的精準(zhǔn)測距和識別。

視覺方案派:

小鵬汽車自動駕駛產(chǎn)品高級總監(jiān)袁婷婷則表示小鵬汽車的純視覺方案已實現(xiàn)了130km/h動態(tài)車輛剎停,上市的小鵬M03 MAX將搭載該技術(shù)。

從兩方在社交媒體的爭論不難看出,核心聚焦在純視覺方案能否在更高時速(120公里時速)實現(xiàn)對相對安全距離(150米)的目標(biāo)的精準(zhǔn)識別。

在這場爭論之后不久,6月19日,小鵬汽車發(fā)布測試視頻并宣稱其純視覺AEB實現(xiàn)130公里/小時對靜止目標(biāo)剎停(行業(yè)最高速),并覆蓋夜間、濕滑路面等復(fù)雜場景,小鵬汽車表示其純視覺路線憑借「大模型+高算力」可實現(xiàn)更低延遲(40ms)和更強泛化能力。該功能預(yù)計在本月底全量推送。

而此前行業(yè)高速AEB性能的標(biāo)桿普遍在100-120km/h(激光雷達(dá)方案上限),華為和理想對外展示的最高時速上都達(dá)到過130公里,小鵬通過純視覺實現(xiàn)130km/h剎停,追平了主流的雷視融合方案(當(dāng)然有觀點認(rèn)為AEB的剎停時速也不宜過高,會對人體造成傷害)。

通常,激光雷達(dá)方案的延遲在80ms以上,40ms端到端響應(yīng)速度則更具低延遲優(yōu)勢,源于省去多傳感器數(shù)據(jù)融合的算力消耗,提升了決策效率。

袁婷婷表示,激光雷達(dá)遠(yuǎn)距離信息稀疏且易受天氣干擾,而高分辨率攝像頭+AI模型才是更優(yōu)解。

當(dāng)AEB的話題被重新推至風(fēng)口,這一次純視覺想要打翻身仗,小鵬勢必要解決一些更難的問題。

02.AEB最核心的感知難題,純視覺怎么解?

近來發(fā)生的多起智駕事故中,AEB不起作用被廣為詬病,這其實涉及一個兩難問題:

太敏感,會造成不斷剎停,嚴(yán)重干擾駕駛者的正常行駛;

降低敏感度,又起不到自動駕駛保障安全的目的,而當(dāng)前無論攝像頭還是毫米波雷達(dá)、激光雷達(dá),都無法做到對障礙物的百分百識別,這也是當(dāng)前AEB的核心難點。

在工作原理上,AEB的激活需要經(jīng)過感知、決策、執(zhí)行三個步驟。首先系統(tǒng)要通過雷達(dá)、攝像頭等感知硬件監(jiān)測前方的道路環(huán)境信息,識別障礙物。如果存在障礙,系統(tǒng)將會基于車輛與障礙之間的距離,或碰撞所需時間來評估碰撞風(fēng)險,如果判定系統(tǒng)設(shè)定的某個安全閾值時,便會觸發(fā)緊急制動。

事實上,AEB是各大自動駕駛團(tuán)隊最難攻克的技術(shù),原因是太難平衡。

AEB作為一個剎車機制,自身帶有感知算法,不同物體對探測的反應(yīng)是不是一樣的,它的準(zhǔn)確運作聚焦于四個方面:識別的準(zhǔn)確率、感知延時、控制精度和控制的延時。

AEB表現(xiàn)的好壞即依賴于傳感器、算法等智駕技術(shù)能力,也依賴于車輛剎車等硬件的物理能力。

當(dāng)下的技術(shù)能力,視覺路線已相比激光雷達(dá)有了巨大的優(yōu)勢。

這一方是攝像頭的像素越來越高,800萬像素的攝像頭越來越普遍,看得更清;一方面,視覺算法開始替代毫米波雷達(dá)承擔(dān)AEB的識別觸發(fā)機制,視覺算法相比毫米波雷達(dá)造成誤觸發(fā)的概率開始大幅下降。

只不過這一技術(shù)路線一來對算力要求很大,同時受光線影響較大。

堅持純視覺智駕技術(shù)路線的小鵬給出了解法,即加大車端算力和通過大模型強化學(xué)習(xí)。

小鵬在日前預(yù)售的G7車型Ultra版算力做到了2200TOPS,這款車型搭載了小鵬自研的3顆圖靈AI芯片,算力相當(dāng)于9顆當(dāng)前主流的智駕芯?(Orin X) 。

算力可以被比喻為智駕發(fā)展的「燃料」,大模型是「引擎」,視覺感知則是「第一性原理」,三者結(jié)合推動感知系統(tǒng)從「看見」升維至「理解」,最終實現(xiàn)人類級場景認(rèn)知。

何小鵬給過的預(yù)判是,2026-2027年「世界模型+強化學(xué)習(xí)」將推動L4級智駕落地,而視覺感知作為基礎(chǔ)層,其可靠性決定終極體驗上限。

現(xiàn)在,小鵬汽車已對外宣布正在研發(fā)參數(shù)規(guī)模達(dá)到720億的云端大模型,即“小鵬世界基座模型”。

該基座模型是以大語言模型為骨干,使用海量優(yōu)質(zhì)駕駛數(shù)據(jù)訓(xùn)練的VLA大模型(視覺-語言-行為大模型),具備視覺理解能力、鏈?zhǔn)酵评砟芰Γ–oT)和動作生成能力。

依靠「高算力+強模型」,能增強主動安全的可靠性,強大的模型能夠提升感知信息的處理效率和精度,高算力能夠讓大模型在車上跑得更順暢。

在大算力和大模型的共同賦能下,視覺感知能將原本規(guī)則時代的單幀圖片識別,轉(zhuǎn)化為4D動態(tài)信息,能夠推理前后幀之間的因果關(guān)系,判斷在道路行駛中后續(xù)可能發(fā)生的情況。

同時只有視覺感知能做到前融合的方案,將時延降到最低。在夜間、雨霧等場景,大模型下的視覺融合方案都會更安全。

如果算力充足,那么用一段式端到端方法做AEB一定是最佳選擇,從感知到?jīng)Q策再到規(guī)劃控制,可以一步到位。

而當(dāng)有了更雪亮的眼睛(更準(zhǔn)確的識別感知),更聰明的大腦(更快瞬時推理能力),就會造就更敏捷的身手(更快響應(yīng)速度),最終造就更強大、更好用的AEB。

如果給何小鵬出一道選擇題,是一雙更聰明的眼睛重要,還是一個更強大的大腦更重要,他會說,小鵬選擇后者。

為了搭建云端足夠大的模型,小鵬訓(xùn)練了數(shù)百億參數(shù)規(guī)模的云端基座大模型,參數(shù)量達(dá)車端模型的80倍,這意味80倍參數(shù)可以吸納corner case,突破規(guī)則代碼上限。

所以,如果小鵬的云端數(shù)據(jù)規(guī)模真能達(dá)到官方所說的「720億參數(shù)量」和「集群算力10EFLOPS」,那么的確是世界TOP級別的規(guī)模與投入。

現(xiàn)在,小鵬云端大模型參數(shù)量達(dá)車端模型的80倍,這意味80倍參數(shù)可以吸納corner case,突破規(guī)則代碼上限。

而在云端訓(xùn)練超大模型的基礎(chǔ)上,小鵬并非簡單將云端基座大模型直接部署到車端,而是通過知識蒸餾(Knowledge Distillation)實現(xiàn)“大模型智能下沉”,在保障安全性與實時性的同時突破車端算力限制。

蒸餾可以理解為將“教授知識”壓縮至“學(xué)生模型”。

在駕駛真實場景中,直接訓(xùn)練小模型容易因駕駛場景多解性(同一場景有多種合法路徑)導(dǎo)致模型混淆,而大模型通過統(tǒng)一模態(tài)蒸餾可避免此問題。

另一個技術(shù)優(yōu)勢是有望突破Scaling Law邊際效應(yīng)。

小鵬指出,無論是自己2000萬clips的云端數(shù)據(jù)量,還是其他家的xx千萬,都是建立在“視頻切片”的基礎(chǔ)上。

云端大模型在充分吸收海量數(shù)據(jù)后,蒸餾后的小模型性能就會遠(yuǎn)超同參數(shù)直接訓(xùn)練的模型上限。

雖然硬件雙冗余對于感知硬件的一項要求就是要配備激光雷達(dá),但現(xiàn)在以純視覺智駕技術(shù)路線為代表的小鵬擁有長期規(guī)模投入的能力,通過更強大的大腦替代激光雷達(dá)的物理感知冗余,在主動安全領(lǐng)域?qū)崿F(xiàn)了對激光雷達(dá)融合感知路線的系統(tǒng)性突破。

03.純視覺AEB比雷視融合更具未來性

倘若視覺感知實現(xiàn)真正的前融合,系統(tǒng)時延就會降到最低,從長期來看,純視覺是解決感知上限的最優(yōu)解。

6月16日,特斯拉副總裁陶琳在微博上發(fā)布了一則馬斯克的采訪視頻,馬斯克在采訪中表示,與道路系統(tǒng)最適配的智能駕駛技術(shù)就是人工智能、數(shù)字神經(jīng)網(wǎng)絡(luò)和攝像頭相結(jié)合。

「當(dāng)然我們的車輛還配備了麥克風(fēng),用于識別緊急車輛的聲音」。馬斯克認(rèn)為,全世界的道路系統(tǒng)都是為了智能、生物神經(jīng)網(wǎng)絡(luò)和眼睛設(shè)計的,而不是根據(jù)「從眼睛里發(fā)射激光」來設(shè)計的。

純視覺感知究竟解決了雷視融合感知路線的哪些問題?

最核心的是解決了延遲和誤檢的問題。

比如,激光雷達(dá)是點云數(shù)據(jù),數(shù)據(jù)量大且頻率低,給整體的系統(tǒng)延時帶來了較大負(fù)擔(dān)。激光雷達(dá)在大雨/霧天場景容易出現(xiàn)誤檢,比如鏡面反射、點云膨脹等。

相比激光雷達(dá)的點云數(shù)據(jù),攝像頭是圖像/視頻數(shù)據(jù),兩種不同模態(tài)的信息在車端融合,一方面需要較高的存儲和處理成本,對于需要在毫秒之間作出響應(yīng)的輔助駕駛系統(tǒng)來說,由此導(dǎo)致的任何延遲都不可接受;另一方面,不同模態(tài)的信息如果相互矛盾,會影響AI大腦的決策。

采用統(tǒng)一的視覺模態(tài)信息,會讓系統(tǒng)響應(yīng)效率更高,提升駕駛安全性。

當(dāng)然,激光雷達(dá)的優(yōu)勢是可以實現(xiàn)對障礙物物體空間位置的感知,以及對于強逆光、雨霧的穿透,以便做到較低的誤觸發(fā)率,純視覺如何做到或者超過激視融合感知路線的準(zhǔn)確率和低誤觸發(fā)率?

小鵬汽車產(chǎn)品經(jīng)理Mike給出的解釋是,降低誤觸發(fā)的核心是對道路情況看得清、看得遠(yuǎn)、看得準(zhǔn)。

他以小鵬鷹眼視覺+毫米波雷達(dá)方案舉例,這套方案能做到對障礙物空間位置的感知,盡量減少誤識別。再加上一個足夠聰明的大腦,就能對道路上的突發(fā)狀況做快速的推理分析,準(zhǔn)確評判風(fēng)險,而不是動輒剎車了事。

熟悉小鵬的人都知道,小鵬是第一家量產(chǎn)激光雷達(dá)車型的車企,也是第一家把激光雷達(dá)去掉的車企。

Mike說,小鵬在去掉激光雷達(dá)后,節(jié)約了20%的感知算力,這樣可以升級視覺感知模型的容量、參數(shù)量和推理的頻率。

有專家表示,激光雷達(dá)最高每秒10幀,而視覺攝像頭可以實現(xiàn)24幀,激光雷達(dá)的10Hz是主動掃描式采樣,視覺的24Hz是被動并行式采樣,后者在時間分辨率上具有物理層優(yōu)勢。

高幀率視覺的核心價值在于構(gòu)建時空連續(xù)性的認(rèn)知能力——當(dāng)激光雷達(dá)還在「逐幀拼湊世界」時,視覺系統(tǒng)已在「理解運動故事線」。這恰恰是應(yīng)對國內(nèi)復(fù)雜城市場景(鬼探頭、加塞等)的最優(yōu)解,亦是傳感器頻率差異的本質(zhì)意義。

從短期成本可控來看,如果想省掉鉆研算力算法的苦力活 ,中高算力+激光雷達(dá)的確是個好選擇,隨著激光雷達(dá)上車,與視覺算法結(jié)合,理論上當(dāng)然效果更好,但是實現(xiàn)二者的數(shù)據(jù)融合又是另一個技術(shù)門檻。

很難說實現(xiàn)二者數(shù)據(jù)融合的門檻不比純視覺更高。

在智駕網(wǎng)近年來采訪的多位智駕專家中,一致的觀點純視覺是智駕的未來。

但鑒于近期的諸多智駕事故,部分人將事故的原因歸結(jié)于硬件配置的不足,回避了自身算法能力的不足,反而給大眾形成了激光雷達(dá)是不可缺少的智駕配置的認(rèn)知。

何小鵬說“2027年以后,純視覺技術(shù)不會再有分歧?!?/p>

為什么是2027年?因為彼時大抵市場上的玩家都基本解決了算力和模型問題。

 
本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

AEB成強制性國家標(biāo)準(zhǔn),純視覺能通過考驗嗎?

純視覺感知究竟解決了雷視融合感知路線的哪些問題?

文丨智駕網(wǎng) July

編輯|雨來

以激光雷達(dá)為代表的雷視融合方案和純視覺路線的誰優(yōu)誰劣伴隨著智駕從手寫規(guī)則到今天的端到端階段,不過如果拋棄算力、算法和大模型能力來單純對比激光雷達(dá)和純視覺的優(yōu)劣顯然是舍本逐末。在AEB即將成為國標(biāo)之際,目前的標(biāo)準(zhǔn)要求也遠(yuǎn)未到激光雷達(dá)與純視覺只能二選一的地步。

一紙新規(guī),再次將AEB話題引入輿論場。

5月,工業(yè)和信息化部發(fā)布《輕型汽車自動緊急制動系統(tǒng)技術(shù)要求及試驗方法》(征求意見稿),將自動緊急制動系統(tǒng)(AEB)從推薦性標(biāo)準(zhǔn)升級為強制性國家標(biāo)準(zhǔn),并計劃于2026年起分階段實施。該標(biāo)準(zhǔn)將替代現(xiàn)行國標(biāo)GB/T 39901-2021,征求意見截止日期即將在本月底(6月30日)結(jié)束。

這是目前智駕輔助功能中第一次上升為國家強制標(biāo)準(zhǔn),但它同時也引發(fā)了技術(shù)路線的爭議,如果強制安裝AEB是否意味著所有的車型都需要標(biāo)配激光雷達(dá)?

智駕網(wǎng)梳理了新國標(biāo)三大核心變化——

適用范圍擴(kuò)大:要求所有M1類乘用車(轎車、SUV、MPV等)和N1類輕型載貨汽車(總質(zhì)量≤3.5噸)強制裝備AEB系統(tǒng),覆蓋中國90%以上輕型車輛;

技術(shù)要求升級:新增對行人、自行車、踏板式兩輪摩托車等弱勢道路使用者的識別能力要求,并增加交叉路口、右轉(zhuǎn)跟車等復(fù)雜場景測試;

性能指標(biāo)提升:乘用車AEB激活范圍擴(kuò)大至10-80km/h,制動減速度要求從4.0m/s2提高到5.0m/s2,針對靜止前車的測試速度從30km/h提高到80km/h;

但在這些變化之中,值得注意的是,新國標(biāo)并未強制要求安裝特定的傳感器配置,其性能導(dǎo)向的特性也為多元技術(shù)路線留下了充分可討論的空間。

01.AEB爭議為何再起?

AEB的技術(shù)路線目前有毫米波雷達(dá)、純視覺和雷視融合三種。

當(dāng)前眾多車輛的AEB系統(tǒng)基于77GHz毫米波雷達(dá)實現(xiàn),在三種技術(shù)方案中,依靠毫米波雷達(dá)的這一方案,是最基礎(chǔ)的技術(shù)方案,同時成本最低,應(yīng)用廣泛,但缺點是易受環(huán)境干擾,極易失效。

純視覺方案,依賴攝像頭進(jìn)行感知,這種方案的弊端在于對靜止物體的識別存在局限性,也容易受到光線等環(huán)境干擾。

目前聲勢最盛的是多傳感器融合方案,毫米波雷達(dá)、激光雷達(dá)和攝像頭融合使用,弱點是成本更高。

不過當(dāng)下所說的純視覺方案其實也是攝像頭和毫米波的組合方案。

直觀來看,多傳感器雷視融合方案最佳,雖然成本相對更高,但AEB做為緊急狀態(tài)下的最后一道屏障,與安全相比,成本高一些無可厚非。

不過,不考慮算力、算法,單純對比傳感器多寡,一刀切地認(rèn)為擁有激光雷達(dá)就一定強于純視覺則有失偏頗。

在新國標(biāo)發(fā)布之際,行業(yè)也正經(jīng)歷一場關(guān)于AEB技術(shù)路線的激烈爭論。

激光雷達(dá)派:

有博主在社交媒體發(fā)文稱,純視覺方案尚未實現(xiàn)100km/h以上剎停能力,而融合激光雷達(dá)的方案已量產(chǎn)120km/h剎停能力。

他強調(diào):“對靜止車輛的空間感知需要150米的精準(zhǔn)測距”。

言下之意,純視覺無法實現(xiàn)150米距離的精準(zhǔn)測距和識別。

視覺方案派:

小鵬汽車自動駕駛產(chǎn)品高級總監(jiān)袁婷婷則表示小鵬汽車的純視覺方案已實現(xiàn)了130km/h動態(tài)車輛剎停,上市的小鵬M03 MAX將搭載該技術(shù)。

從兩方在社交媒體的爭論不難看出,核心聚焦在純視覺方案能否在更高時速(120公里時速)實現(xiàn)對相對安全距離(150米)的目標(biāo)的精準(zhǔn)識別。

在這場爭論之后不久,6月19日,小鵬汽車發(fā)布測試視頻并宣稱其純視覺AEB實現(xiàn)130公里/小時對靜止目標(biāo)剎停(行業(yè)最高速),并覆蓋夜間、濕滑路面等復(fù)雜場景,小鵬汽車表示其純視覺路線憑借「大模型+高算力」可實現(xiàn)更低延遲(40ms)和更強泛化能力。該功能預(yù)計在本月底全量推送。

而此前行業(yè)高速AEB性能的標(biāo)桿普遍在100-120km/h(激光雷達(dá)方案上限),華為和理想對外展示的最高時速上都達(dá)到過130公里,小鵬通過純視覺實現(xiàn)130km/h剎停,追平了主流的雷視融合方案(當(dāng)然有觀點認(rèn)為AEB的剎停時速也不宜過高,會對人體造成傷害)。

通常,激光雷達(dá)方案的延遲在80ms以上,40ms端到端響應(yīng)速度則更具低延遲優(yōu)勢,源于省去多傳感器數(shù)據(jù)融合的算力消耗,提升了決策效率。

袁婷婷表示,激光雷達(dá)遠(yuǎn)距離信息稀疏且易受天氣干擾,而高分辨率攝像頭+AI模型才是更優(yōu)解。

當(dāng)AEB的話題被重新推至風(fēng)口,這一次純視覺想要打翻身仗,小鵬勢必要解決一些更難的問題。

02.AEB最核心的感知難題,純視覺怎么解?

近來發(fā)生的多起智駕事故中,AEB不起作用被廣為詬病,這其實涉及一個兩難問題:

太敏感,會造成不斷剎停,嚴(yán)重干擾駕駛者的正常行駛;

降低敏感度,又起不到自動駕駛保障安全的目的,而當(dāng)前無論攝像頭還是毫米波雷達(dá)、激光雷達(dá),都無法做到對障礙物的百分百識別,這也是當(dāng)前AEB的核心難點。

在工作原理上,AEB的激活需要經(jīng)過感知、決策、執(zhí)行三個步驟。首先系統(tǒng)要通過雷達(dá)、攝像頭等感知硬件監(jiān)測前方的道路環(huán)境信息,識別障礙物。如果存在障礙,系統(tǒng)將會基于車輛與障礙之間的距離,或碰撞所需時間來評估碰撞風(fēng)險,如果判定系統(tǒng)設(shè)定的某個安全閾值時,便會觸發(fā)緊急制動。

事實上,AEB是各大自動駕駛團(tuán)隊最難攻克的技術(shù),原因是太難平衡。

AEB作為一個剎車機制,自身帶有感知算法,不同物體對探測的反應(yīng)是不是一樣的,它的準(zhǔn)確運作聚焦于四個方面:識別的準(zhǔn)確率、感知延時、控制精度和控制的延時。

AEB表現(xiàn)的好壞即依賴于傳感器、算法等智駕技術(shù)能力,也依賴于車輛剎車等硬件的物理能力。

當(dāng)下的技術(shù)能力,視覺路線已相比激光雷達(dá)有了巨大的優(yōu)勢。

這一方是攝像頭的像素越來越高,800萬像素的攝像頭越來越普遍,看得更清;一方面,視覺算法開始替代毫米波雷達(dá)承擔(dān)AEB的識別觸發(fā)機制,視覺算法相比毫米波雷達(dá)造成誤觸發(fā)的概率開始大幅下降。

只不過這一技術(shù)路線一來對算力要求很大,同時受光線影響較大。

堅持純視覺智駕技術(shù)路線的小鵬給出了解法,即加大車端算力和通過大模型強化學(xué)習(xí)。

小鵬在日前預(yù)售的G7車型Ultra版算力做到了2200TOPS,這款車型搭載了小鵬自研的3顆圖靈AI芯片,算力相當(dāng)于9顆當(dāng)前主流的智駕芯?(Orin X) 。

算力可以被比喻為智駕發(fā)展的「燃料」,大模型是「引擎」,視覺感知則是「第一性原理」,三者結(jié)合推動感知系統(tǒng)從「看見」升維至「理解」,最終實現(xiàn)人類級場景認(rèn)知。

何小鵬給過的預(yù)判是,2026-2027年「世界模型+強化學(xué)習(xí)」將推動L4級智駕落地,而視覺感知作為基礎(chǔ)層,其可靠性決定終極體驗上限。

現(xiàn)在,小鵬汽車已對外宣布正在研發(fā)參數(shù)規(guī)模達(dá)到720億的云端大模型,即“小鵬世界基座模型”。

該基座模型是以大語言模型為骨干,使用海量優(yōu)質(zhì)駕駛數(shù)據(jù)訓(xùn)練的VLA大模型(視覺-語言-行為大模型),具備視覺理解能力、鏈?zhǔn)酵评砟芰Γ–oT)和動作生成能力。

依靠「高算力+強模型」,能增強主動安全的可靠性,強大的模型能夠提升感知信息的處理效率和精度,高算力能夠讓大模型在車上跑得更順暢。

在大算力和大模型的共同賦能下,視覺感知能將原本規(guī)則時代的單幀圖片識別,轉(zhuǎn)化為4D動態(tài)信息,能夠推理前后幀之間的因果關(guān)系,判斷在道路行駛中后續(xù)可能發(fā)生的情況。

同時只有視覺感知能做到前融合的方案,將時延降到最低。在夜間、雨霧等場景,大模型下的視覺融合方案都會更安全。

如果算力充足,那么用一段式端到端方法做AEB一定是最佳選擇,從感知到?jīng)Q策再到規(guī)劃控制,可以一步到位。

而當(dāng)有了更雪亮的眼睛(更準(zhǔn)確的識別感知),更聰明的大腦(更快瞬時推理能力),就會造就更敏捷的身手(更快響應(yīng)速度),最終造就更強大、更好用的AEB。

如果給何小鵬出一道選擇題,是一雙更聰明的眼睛重要,還是一個更強大的大腦更重要,他會說,小鵬選擇后者。

為了搭建云端足夠大的模型,小鵬訓(xùn)練了數(shù)百億參數(shù)規(guī)模的云端基座大模型,參數(shù)量達(dá)車端模型的80倍,這意味80倍參數(shù)可以吸納corner case,突破規(guī)則代碼上限。

所以,如果小鵬的云端數(shù)據(jù)規(guī)模真能達(dá)到官方所說的「720億參數(shù)量」和「集群算力10EFLOPS」,那么的確是世界TOP級別的規(guī)模與投入。

現(xiàn)在,小鵬云端大模型參數(shù)量達(dá)車端模型的80倍,這意味80倍參數(shù)可以吸納corner case,突破規(guī)則代碼上限。

而在云端訓(xùn)練超大模型的基礎(chǔ)上,小鵬并非簡單將云端基座大模型直接部署到車端,而是通過知識蒸餾(Knowledge Distillation)實現(xiàn)“大模型智能下沉”,在保障安全性與實時性的同時突破車端算力限制。

蒸餾可以理解為將“教授知識”壓縮至“學(xué)生模型”。

在駕駛真實場景中,直接訓(xùn)練小模型容易因駕駛場景多解性(同一場景有多種合法路徑)導(dǎo)致模型混淆,而大模型通過統(tǒng)一模態(tài)蒸餾可避免此問題。

另一個技術(shù)優(yōu)勢是有望突破Scaling Law邊際效應(yīng)。

小鵬指出,無論是自己2000萬clips的云端數(shù)據(jù)量,還是其他家的xx千萬,都是建立在“視頻切片”的基礎(chǔ)上。

云端大模型在充分吸收海量數(shù)據(jù)后,蒸餾后的小模型性能就會遠(yuǎn)超同參數(shù)直接訓(xùn)練的模型上限。

雖然硬件雙冗余對于感知硬件的一項要求就是要配備激光雷達(dá),但現(xiàn)在以純視覺智駕技術(shù)路線為代表的小鵬擁有長期規(guī)模投入的能力,通過更強大的大腦替代激光雷達(dá)的物理感知冗余,在主動安全領(lǐng)域?qū)崿F(xiàn)了對激光雷達(dá)融合感知路線的系統(tǒng)性突破。

03.純視覺AEB比雷視融合更具未來性

倘若視覺感知實現(xiàn)真正的前融合,系統(tǒng)時延就會降到最低,從長期來看,純視覺是解決感知上限的最優(yōu)解。

6月16日,特斯拉副總裁陶琳在微博上發(fā)布了一則馬斯克的采訪視頻,馬斯克在采訪中表示,與道路系統(tǒng)最適配的智能駕駛技術(shù)就是人工智能、數(shù)字神經(jīng)網(wǎng)絡(luò)和攝像頭相結(jié)合。

「當(dāng)然我們的車輛還配備了麥克風(fēng),用于識別緊急車輛的聲音」。馬斯克認(rèn)為,全世界的道路系統(tǒng)都是為了智能、生物神經(jīng)網(wǎng)絡(luò)和眼睛設(shè)計的,而不是根據(jù)「從眼睛里發(fā)射激光」來設(shè)計的。

純視覺感知究竟解決了雷視融合感知路線的哪些問題?

最核心的是解決了延遲和誤檢的問題。

比如,激光雷達(dá)是點云數(shù)據(jù),數(shù)據(jù)量大且頻率低,給整體的系統(tǒng)延時帶來了較大負(fù)擔(dān)。激光雷達(dá)在大雨/霧天場景容易出現(xiàn)誤檢,比如鏡面反射、點云膨脹等。

相比激光雷達(dá)的點云數(shù)據(jù),攝像頭是圖像/視頻數(shù)據(jù),兩種不同模態(tài)的信息在車端融合,一方面需要較高的存儲和處理成本,對于需要在毫秒之間作出響應(yīng)的輔助駕駛系統(tǒng)來說,由此導(dǎo)致的任何延遲都不可接受;另一方面,不同模態(tài)的信息如果相互矛盾,會影響AI大腦的決策。

采用統(tǒng)一的視覺模態(tài)信息,會讓系統(tǒng)響應(yīng)效率更高,提升駕駛安全性。

當(dāng)然,激光雷達(dá)的優(yōu)勢是可以實現(xiàn)對障礙物物體空間位置的感知,以及對于強逆光、雨霧的穿透,以便做到較低的誤觸發(fā)率,純視覺如何做到或者超過激視融合感知路線的準(zhǔn)確率和低誤觸發(fā)率?

小鵬汽車產(chǎn)品經(jīng)理Mike給出的解釋是,降低誤觸發(fā)的核心是對道路情況看得清、看得遠(yuǎn)、看得準(zhǔn)。

他以小鵬鷹眼視覺+毫米波雷達(dá)方案舉例,這套方案能做到對障礙物空間位置的感知,盡量減少誤識別。再加上一個足夠聰明的大腦,就能對道路上的突發(fā)狀況做快速的推理分析,準(zhǔn)確評判風(fēng)險,而不是動輒剎車了事。

熟悉小鵬的人都知道,小鵬是第一家量產(chǎn)激光雷達(dá)車型的車企,也是第一家把激光雷達(dá)去掉的車企。

Mike說,小鵬在去掉激光雷達(dá)后,節(jié)約了20%的感知算力,這樣可以升級視覺感知模型的容量、參數(shù)量和推理的頻率。

有專家表示,激光雷達(dá)最高每秒10幀,而視覺攝像頭可以實現(xiàn)24幀,激光雷達(dá)的10Hz是主動掃描式采樣,視覺的24Hz是被動并行式采樣,后者在時間分辨率上具有物理層優(yōu)勢。

高幀率視覺的核心價值在于構(gòu)建時空連續(xù)性的認(rèn)知能力——當(dāng)激光雷達(dá)還在「逐幀拼湊世界」時,視覺系統(tǒng)已在「理解運動故事線」。這恰恰是應(yīng)對國內(nèi)復(fù)雜城市場景(鬼探頭、加塞等)的最優(yōu)解,亦是傳感器頻率差異的本質(zhì)意義。

從短期成本可控來看,如果想省掉鉆研算力算法的苦力活 ,中高算力+激光雷達(dá)的確是個好選擇,隨著激光雷達(dá)上車,與視覺算法結(jié)合,理論上當(dāng)然效果更好,但是實現(xiàn)二者的數(shù)據(jù)融合又是另一個技術(shù)門檻。

很難說實現(xiàn)二者數(shù)據(jù)融合的門檻不比純視覺更高。

在智駕網(wǎng)近年來采訪的多位智駕專家中,一致的觀點純視覺是智駕的未來。

但鑒于近期的諸多智駕事故,部分人將事故的原因歸結(jié)于硬件配置的不足,回避了自身算法能力的不足,反而給大眾形成了激光雷達(dá)是不可缺少的智駕配置的認(rèn)知。

何小鵬說“2027年以后,純視覺技術(shù)不會再有分歧。”

為什么是2027年?因為彼時大抵市場上的玩家都基本解決了算力和模型問題。

 
本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。