智駕網(wǎng) 2024-12-02 20:51
黑芝麻智能端到端算法參考模型公布,一文了解技術(shù)亮點
分享
黑芝麻智能表示,黑芝麻智能計劃推出支持華山及武當系列芯片的端到端算法參考方案。該方案采用One Model架構(gòu),并在決策規(guī)劃單元引入了VLM視覺語言大模型和PRR行車規(guī)則的概率化表征子模塊,進一步提升了智駕系統(tǒng)的決策規(guī)劃能力。

近日,黑芝麻智能宣布計劃推出支持華山及武當系列芯片的端到端算法參考方案。該方案采用One Model架構(gòu),并在決策規(guī)劃單元引入了VLM視覺語言大模型和PRR行車規(guī)則的概率化表征子模塊,進一步提升了智駕系統(tǒng)的決策規(guī)劃能力。


該方案分為標準版和高階版兩個版本。前者在單顆武當C1200家族中算力平臺上即可部署,而后則可在即將推出的華山A2000家族中發(fā)揮全部實力。


官方表示,黑芝麻智能的端到端智駕系統(tǒng),一步到位采用了One Model的架構(gòu)。一端可輸入攝像頭、激光雷達、4D毫米波雷達、導(dǎo)航地圖等信息,另一端直接輸出駕駛決策所需要的信息,即本車的預(yù)期軌跡。



圖片


具體到模型內(nèi)部,其可以分為BEV編碼器和決策(軌跡預(yù)測)兩個神經(jīng)網(wǎng)絡(luò)單元。


BEV編碼的工作過程中,車外攝像頭或激光雷達、4D 毫米波雷達等各類傳感器的數(shù)據(jù)進入 ResNet 和 FPN 等主干網(wǎng)絡(luò),提取并融合多層特征,生成多尺度特征金字塔。經(jīng)過幾何變換,特征圖對齊成俯視視角(BEV),實現(xiàn)統(tǒng)一的空間表示。


隨后,系統(tǒng)通過多尺度時序聚合將當前與歷史 BEV特征融合,減少噪聲干擾,增強動態(tài)物體感知精度和系統(tǒng)魯棒性,最終生成特征圖(Feature Maps)傳遞至決策單元,用于生成車輛的預(yù)期行駛軌跡。


BEV和決策兩個神經(jīng)網(wǎng)絡(luò)單元之間傳遞的是特征圖(Feature Maps)。由于這些基礎(chǔ)特征圖沒有人為定義的接口和處理過程,所以信息可以更為原始和完整地傳遞,以便于網(wǎng)絡(luò)進行優(yōu)化和決策。


與此同時,用Feature Maps將兩個單元進行連接,還可以以back-propagation反向傳播的方式——即通過計算最終輸出的軌跡與實際目標之間的誤差,然后將該誤差反向傳播到?jīng)Q策和BEV單元——來進行兩個神經(jīng)網(wǎng)絡(luò)單元的聯(lián)合訓(xùn)練和參數(shù)調(diào)優(yōu)。


黑芝麻智能表示,One Model架構(gòu)既解決了多模塊之間可能存在的信息傳遞損耗問題,又實現(xiàn)了感知和決策單元的聯(lián)合訓(xùn)練,實際效果會更佳優(yōu)秀。


黑芝麻智能團隊還更進一步,通過引入VLM(視覺語言大模型)和規(guī)則的概率化表征(Probabilistic Representation of Rules,以下簡稱 PRR)兩個模塊,來進一步提升端到端系統(tǒng)決策的準確性和靈活性。


VLM 模型基于開源 VLM 模型改進而來,該模型可同時接收圖像和語言輸入信息(比如用戶的導(dǎo)航指令),然后通過 Transformer 結(jié)構(gòu)中的交叉注意力機制將視覺和語言兩種模態(tài)的信息相互關(guān)聯(lián),從而讓模型更深層地理解當前的場景,并以符號特征的形式,將對于場景的理解輸入到?jīng)Q策單元中。


例如,當系統(tǒng)識別到行人在斑馬線上移動的視覺信息,VLM 可以通過語言規(guī)則的匹配,理解這個場景是“行人在過馬路”,并且知道此時應(yīng)該停車或者減速——將這種信息傳遞給軌跡預(yù)測模塊,顯然能夠幫助其做出更加正確的駕駛決策。


除了有 VLM 子模塊的幫助,決策單元還有行車規(guī)則的概率化表征模塊(PRR)提供信息。


圖片


該模塊用于將人類的駕駛常識和交通規(guī)則轉(zhuǎn)化為自動駕駛系統(tǒng)可理解的概率分布,再通過概率化軌跡采樣生成符合交通規(guī)則的候選軌跡,并為每個選項賦予相應(yīng)的概率權(quán)重。例如,在交叉路口,系統(tǒng)可以生成“等待”“緩慢通過”等符合規(guī)則的選項,并賦予相應(yīng)的優(yōu)先級。


此外,該模塊還包含規(guī)則的語言描述部分,將交通規(guī)則和駕駛指令編碼為語義特征,使其能夠被決策模塊理解和應(yīng)用。例如,紅燈停車或右轉(zhuǎn)讓行的規(guī)則會生成特定語義向量。


PRR輸出的兩種信息均會進入到?jīng)Q策單元,與BEV單元輸出的特征圖、VLM輸出的場景理解特征互相融合,最終生成一條最佳的目標行駛軌跡。


最后官方補充一點,VLM和PRR模塊本質(zhì)上是端到端系統(tǒng)的增強型“外掛”,它們額外引入了類人的對于場景的綜合理解能力,以及常識和交規(guī)的語義表征,從而在擴展軌跡決策能力的同時維持了端到端系統(tǒng)的整體工作原理, 其本質(zhì)上相當于一個功能增強了的One Model架構(gòu)。

x

收藏 0
打賞
相關(guān)標簽:
電話:010-65030507
郵箱:editor@autor.com.cn
地址:北京市朝陽區(qū)朝外大街乙6號朝外SOHO D座5097室
北京智駕時代傳媒科技有限公司          Copyright © 2014 - 2022
Autor.com.cn All Rights Reserved. 版權(quán)所有 AutoR智駕 智能汽車網(wǎng)
京ICP備14027737號-1      京公網(wǎng)安備 11010502038466號
電信與信息服務(wù)業(yè)務(wù)經(jīng)營許可證:京B-20211307
關(guān)注官方微信