




版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
特斯拉FSD自動(dòng)駕駛方案深度解析
特斯拉FSD架構(gòu)詳解
FSD為一套包含感知/規(guī)控/執(zhí)行的全鏈路自動(dòng)駕駛軟硬件架構(gòu)
FSD架構(gòu):在數(shù)據(jù)、算法、算力等各個(gè)層面打造了一套包含感知、規(guī)控、執(zhí)行在
內(nèi)的全鏈路自動(dòng)駕駛軟硬件架構(gòu)。規(guī)劃(Planning):本質(zhì)是解決多物體關(guān)聯(lián)路徑
規(guī)劃問(wèn)題,處理自我和所有對(duì)象的行進(jìn)軌跡,指導(dǎo)汽車完成相應(yīng)的執(zhí)行動(dòng)作。神
經(jīng)網(wǎng)絡(luò)(NeuralNetworks):通過(guò)分析視頻流等信息,輸出完整的運(yùn)動(dòng)學(xué)狀態(tài)
(位置/速度/加速度/顛簸)控制車輛。訓(xùn)練數(shù)據(jù)(TrainingData):通過(guò)最新
的4D自動(dòng)標(biāo)注技術(shù)、升級(jí)模擬仿真及云端計(jì)算資源,形成數(shù)據(jù)閉環(huán)。訓(xùn)練基礎(chǔ)
設(shè)施(TrainingInfra)包括CPU、GPU、神經(jīng)網(wǎng)絡(luò)加速器單元(NeuralNetv/ork
Accelerator)、AI編譯器等,其中AI編譯器能夠支持神經(jīng)網(wǎng)絡(luò)所需的新操作,
將它們映射到最佳的底層硬件資源上。AI編譯與推理(AICompiler&
Inference):即如何在計(jì)算機(jī)上運(yùn)行神經(jīng)網(wǎng)絡(luò)。當(dāng)前的推理引擎能夠?qū)蝹€(gè)神經(jīng)
網(wǎng)絡(luò)的執(zhí)行分配到兩個(gè)獨(dú)立的芯片系統(tǒng)上執(zhí)行,可以理解為有兩臺(tái)獨(dú)立的計(jì)算機(jī)
在同一臺(tái)自動(dòng)駕駛計(jì)算機(jī)內(nèi)相互連接。
基于VectorSpace的FSD路徑規(guī)劃,能夠快速產(chǎn)生最優(yōu)解
具體解次路徑:從一組視覺(jué)測(cè)量開(kāi)始,包括車道、占用率、移動(dòng)物體等(這些都
表現(xiàn)為稀疏的抽象和潛在特征),感知得到的VectorSpace,通過(guò)Vector
Space規(guī)劃出后續(xù)潛在目標(biāo)狀態(tài),進(jìn)一步考慮細(xì)分互動(dòng),得到?jīng)Q策規(guī)劃的路徑。
對(duì)于未知及不確定性(cornercase)的決策----通過(guò)OccupancyNetwork對(duì)
可視區(qū)域進(jìn)行建模用來(lái)處理未知不可見(jiàn)場(chǎng)景。需要根據(jù)這些假想的參與者做相應(yīng)
的保護(hù)性駕駛,將控制反應(yīng)與存在可能性函數(shù)相協(xié)調(diào),得到非常類似人的行為。
至此,特斯拉FSD最終架構(gòu)浮出水面:首先,通過(guò)視覺(jué)感知網(wǎng)絡(luò)生成三維向量
空間,對(duì)于僅有唯一解的問(wèn)題,可直接生成明確的規(guī)控方案,而對(duì)于有多個(gè)可選
方案的復(fù)雜問(wèn)題,使用向量空間和感知網(wǎng)絡(luò)提取的中間層特征,訓(xùn)練神經(jīng)網(wǎng)絡(luò)規(guī)
劃器,得到軌跡分布。其次,融入成本函數(shù)、人工干預(yù)數(shù)據(jù)或其他仿真模擬數(shù)據(jù),
獲得最優(yōu)的規(guī)控方案。最終生成轉(zhuǎn)向、加速等控制指令,由執(zhí)行模塊接受控制指
令實(shí)現(xiàn)自動(dòng)駕駛。
HydraNets(九頭蛇網(wǎng)絡(luò))為視覺(jué)感知網(wǎng)絡(luò)的基fit結(jié)構(gòu)
網(wǎng)絡(luò)基礎(chǔ)結(jié)構(gòu)一九頭蛇網(wǎng)絡(luò)(HydraNets)由主干(Backbone)、頸部(Neck))
與多個(gè)分支頭部(Head)共同組成。主干層將原始視頻數(shù)據(jù)通過(guò)殘差神經(jīng)網(wǎng)絡(luò)
(RugNut)及多尺度特征融合結(jié)構(gòu)(BiFPN)完成端到端訓(xùn)練,提取出頸部層的多尺
度視覺(jué)特征空間(multiscalefeatures),最后在頭部層根據(jù)不同任務(wù)類型完成
子網(wǎng)絡(luò)訓(xùn)練并輸出感知結(jié)果。優(yōu)勢(shì)一:特征共享(FeatureSharing),使用同一
主干網(wǎng)絡(luò)提取特征并共享給頭部使用,可以在測(cè)試階段分?jǐn)傇谲嚿线\(yùn)行的前向
判斷,避免不同任務(wù)之間重復(fù)計(jì)算現(xiàn)象,提升網(wǎng)絡(luò)運(yùn)行效率。優(yōu)勢(shì)二:任務(wù)解
耦(De-CouplesTasks)。不同類型子任務(wù)之間可以進(jìn)行解耦,這樣可以單獨(dú)
處理每一項(xiàng)任務(wù),對(duì)單項(xiàng)任務(wù)的升級(jí)不必驗(yàn)證其他任務(wù)是否正常,升級(jí)成本更
低。優(yōu)勢(shì)三:特征緩存(RepresentationBottleneck)。因?yàn)檫@里存在頸部,
可以將特征緩存到硬盤(pán),具有較強(qiáng)的擴(kuò)展性。
通過(guò)端到端的感知訓(xùn)練模型,從數(shù)據(jù)輸入到空間向量輸出
Stepl圖像輸入(ImageInput):校準(zhǔn)每個(gè)相機(jī)的圖片,將原始12位RGB圖
像(而非典型的8位)輸送給網(wǎng)絡(luò)。多了4位信息能夠使得動(dòng)態(tài)范圍提升16倍,
同時(shí)減少延遲(無(wú)需在循環(huán)中運(yùn)行圖像信號(hào)處理ISP)。Step2圖像校準(zhǔn)
(Rectify):通過(guò)不同的汽車采集到的數(shù)據(jù)共同構(gòu)建一個(gè)通用感知網(wǎng)絡(luò)架構(gòu),不
同汽車由于攝像頭安裝外參的差異,可能導(dǎo)致采集的數(shù)據(jù)存在微小偏差,為比特
斯拉在感知框架中加入了一層"虛擬標(biāo)準(zhǔn)相機(jī)(virtualcamera)",引入攝像頭標(biāo)定
外參將每輛車采集到的圖像數(shù)據(jù)通過(guò)去畸變、旋轉(zhuǎn)等方式處理后,統(tǒng)一映射到同
一套虛擬標(biāo)準(zhǔn)攝像頭坐標(biāo)中,從而實(shí)現(xiàn)各攝像頭原始數(shù)據(jù)校準(zhǔn),消除外參誤差,
確保數(shù)據(jù)一致性,將校準(zhǔn)后的數(shù)據(jù)傳輸給主干神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。Step3特征提
取(ImageFeaturizers):用一組RegNet(特定殘差網(wǎng)絡(luò),specificclassof
resnets)和BiFPN(加權(quán)雙向特征金字塔網(wǎng)絡(luò))作為提取圖像空間特征的主干。
Step4構(gòu)造空間位置(SpacialAttention):將攝像頭采集到的數(shù)據(jù)通過(guò)[BEV
空間轉(zhuǎn)換層】構(gòu)造一組3D位置,同時(shí)將圖像信息作為鍵(key)值(value),輸入
給一個(gè)注意力模型(核心模塊是【Transformer神經(jīng)網(wǎng)絡(luò)】)。注意力模型的輸
出是高維空間特征,這些高維空間特征與車輛上的里程數(shù)據(jù)進(jìn)行暫時(shí)協(xié)調(diào),來(lái)推
導(dǎo)出運(yùn)動(dòng).該方案厲害之處在于可以將地面坡度、曲率等幾何形狀的變化情況內(nèi)
化進(jìn)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練參數(shù)中。Step5時(shí)間對(duì)齊(TemporalAlignment):上
述高維空間暫時(shí)特征經(jīng)過(guò)一組反卷積,產(chǎn)生最終的占用率和占用率流輸出。它們
生成的是固定尺寸塊的網(wǎng)格,為了提高精度,模型還生成了pervolexfeature
MAP輸入到MLP中,借助3D空間點(diǎn)查詢(query)來(lái)獲取任意點(diǎn)的位置和語(yǔ)
義信息
基于3DOccupancy迭代車道線及障礙物感知模型
早期,將車道檢測(cè)問(wèn)題建模為一個(gè)圖像空間內(nèi)實(shí)時(shí)分割的任務(wù),只能從幾種不同
的幾何形狀中辨別車道。具體而言,可以分別出當(dāng)前車道、相鄰車道,能特別處
理一些交叉和合并的情況,然后用粗略的地圖數(shù)據(jù)對(duì)其進(jìn)行增強(qiáng)。這種簡(jiǎn)化模型
對(duì)高速這種高度結(jié)構(gòu)化的路是有效的。當(dāng)前,引入MapComponent,使用了
低精度地圖中關(guān)于車道線幾何/拓?fù)潢P(guān)系的信息(車道線數(shù)量/寬度、特殊車道屬
性等),并將這些信息整合起來(lái)進(jìn)行編碼,與視覺(jué)感知到的特征信息一起生成車
道線(DenseWorldTensor)給到后續(xù)VectorLane模塊。
由2D手工標(biāo)注逐步升級(jí)為4D自動(dòng)標(biāo)注,數(shù)據(jù)閉環(huán)趨于完善
做法:在2D圖像上標(biāo)注出各種物體,具體表現(xiàn)為在單個(gè)物體上繪制出一些多邊
形和折線,用以描繪出邊界框(BoundingBoxes)。缺點(diǎn):數(shù)據(jù)量很大的情況
下,工作量極大,標(biāo)注效率低。
含義:在三維或四維空訶中,為不同的時(shí)間點(diǎn)和空間位置賦予獨(dú)特的標(biāo)簽或標(biāo)識(shí)
符。做法:直接在向量空間中進(jìn)行標(biāo)注,將其投影到相機(jī)圖像中。優(yōu)點(diǎn):能夠
支持大量數(shù)據(jù)標(biāo)注;由于只需要在空間中標(biāo)注一次,然后自動(dòng)投影,標(biāo)注效率大
幅提升。
如何進(jìn)行仿真模擬?一一五大步驟
Step1準(zhǔn)確的傳感器仿真(AccurateSensorSimulation):由于FSD的感知系
統(tǒng)是基于純攝像頭,因此需要對(duì)攝像頭的各種屬性進(jìn)行軟硬件建模,如傳感器噪
聲、曝光時(shí)間、光圈大小、運(yùn)動(dòng)模糊、光學(xué)畸變等。Step2逼真的視覺(jué)渲染
(PhotorealisticRendering):為了更真實(shí)的模擬現(xiàn)實(shí)世界場(chǎng)景,需要仿真渲
染盡可能做到逼真。特斯拉利用神經(jīng)網(wǎng)絡(luò)視覺(jué)技術(shù)提升視覺(jué)渲染效果,同時(shí)用光
線追蹤的方法模擬逼真的光照效果。Step3多元化的交通參與者與地理位置
(DiverseActors&Locations):為了避免仿真環(huán)境過(guò)于單一,導(dǎo)致感知系統(tǒng)
過(guò)擬合的問(wèn)題,特斯拉對(duì)仿真環(huán)境參與物進(jìn)行了充分建模,包括多元化的交通參
與者和靜態(tài)物體。
Step4大規(guī)模場(chǎng)景生成(ScalableSensorGeneration):由計(jì)算機(jī)通過(guò)調(diào)整參
數(shù)生成不同的場(chǎng)景形態(tài)。同時(shí)由于大量的仿真場(chǎng)景可能是的無(wú)用的,為了避免浪
費(fèi)計(jì)算資源,引入MLB等神經(jīng)網(wǎng)絡(luò)尋找故障點(diǎn),重點(diǎn)圍繞故障點(diǎn)進(jìn)行仿真數(shù)據(jù)創(chuàng)
建,反哺實(shí)際規(guī)劃網(wǎng)絡(luò),形成閉環(huán)。Step5場(chǎng)景重現(xiàn)(SensorRecontruction):
在完成真實(shí)世界片段的自動(dòng)標(biāo)注重建后,疊加視覺(jué)圖像信息,生成與真實(shí)世界"攣
生”的虛擬世界,復(fù)現(xiàn)真實(shí)世界中FSD失敗的場(chǎng)景,實(shí)現(xiàn)在仿真環(huán)境下的優(yōu)化迭
代后再反哺汽車算法模型,實(shí)現(xiàn)"數(shù)據(jù)閉環(huán)二
FSDV12展望
FSDV12或?qū)⑼耆D(zhuǎn)向端到端自動(dòng)駕駛技術(shù)方案
23年8月26日,特斯拉CEO馬斯克開(kāi)啟了一場(chǎng)路測(cè)特斯拉FSDV12的直播。
直播全程45分鐘,馬斯克只有一次駕駛干預(yù),這發(fā)生在一個(gè)繁忙的十字路口,
馬斯克所駕駛的特斯拉試圖闖紅燈,他立即控制了車輛。直播中儀表盤(pán)中的實(shí)時(shí)
道路場(chǎng)景可以看出,V12保留了當(dāng)前FSD輸出的感知結(jié)果。以UniAD為例,
利用多組query實(shí)現(xiàn)了全棧Transformer的端到端模型。圖中UniAD由2個(gè)
感知模塊,2個(gè)預(yù)測(cè)模塊以及一個(gè)規(guī)劃模塊組成。其中感知和預(yù)測(cè)模塊是通過(guò)
Transformer架構(gòu)進(jìn)行預(yù)測(cè),每個(gè)模塊輸出的特征會(huì)傳遞到之后的模塊來(lái)輔助下
游任務(wù),這樣的模型結(jié)構(gòu)實(shí)現(xiàn)了端到端可導(dǎo),顯著提升了模型的可解釋性。
端到端方案中神經(jīng)網(wǎng)絡(luò)是關(guān)鍵,有望實(shí)現(xiàn)全局最優(yōu)解
原理:與模塊化方案相比,端到端自動(dòng)駕駛方案將感知、規(guī)劃、控制各環(huán)節(jié)一體
化,去除了各模塊基于規(guī)則的代碼,將傳感器收集到的信息直接輸入神經(jīng)網(wǎng)絡(luò),
經(jīng)過(guò)處理后能夠直接輸出自動(dòng)駕駛指令,使得整個(gè)系統(tǒng)端到端可導(dǎo)。優(yōu)點(diǎn):能夠
降低對(duì)激光雷達(dá)、高精地圖、人工的依賴,減少中間環(huán)節(jié)的成本;模型上限高,
可以得到近似全局最優(yōu)解。缺點(diǎn):模型能力起步較慢,解釋簡(jiǎn)單場(chǎng)景不如模塊化
架構(gòu),模型下限低;中間"黑盒"解釋性差。
感知端率先落地,BEV本質(zhì)上是一種端到端感知解決方案
傳統(tǒng)感知模型:2D圖像被輸入感知模塊以生成2D結(jié)果,然后利用傳感器融合對(duì)
多個(gè)攝像機(jī)的2D結(jié)果進(jìn)行推理,并將其提升為3D。生成的3D對(duì)象隨后被發(fā)
送到下游組件,例如預(yù)測(cè)和規(guī)劃。BEV感知:應(yīng)用鳥(niǎo)瞰圖感知模型能夠直接在
BEV空間中感知環(huán)境,其感知堆棧將兩個(gè)獨(dú)立的組件組合成一個(gè)解決方案,本質(zhì)
上就是一種端到端的感知解決方案。當(dāng)前應(yīng)用端到端感知模型的典型企業(yè)為特斯
拉和小鵬。特斯拉率先引入BEV+transformer;小鵬2021年初開(kāi)始試驗(yàn)XNet
深度視覺(jué)神經(jīng)網(wǎng)絡(luò),是國(guó)內(nèi)首個(gè)且唯一量產(chǎn)的BEV感知。
報(bào)告節(jié)選:
01概要
二.行業(yè)拒告陰見(jiàn)泥
■I.——,g,舟?■??一~c.~(*??■,
IABSTRACT概要軟~
FSD為一套包含感知/規(guī)控/執(zhí)行的全鏈路自動(dòng)駕駛軟硬件架構(gòu)
Planning
現(xiàn)劃一我該怎么走
Occupancy
—現(xiàn)什么?如何分布
蜘NeuralNetworicsBAR
一■為什么要這么走
Lanes&Objects
-一周圈的物體下一名去賽里
TrainingData
—這么走是正逢的瑪
AutoLabelingSimulationDataEngine
―數(shù)據(jù)標(biāo)注一仿U模擬一數(shù)據(jù)引擎
TrainingInfraAlCompiler&Inference
硬件平臺(tái)打硬耦合
—拿什么運(yùn)算-0-TO何在計(jì)算機(jī)上運(yùn)行神經(jīng)網(wǎng)絡(luò)
*JI.TESiA2022AJ<Uy,,O3ug二一行西".告陰先院
■■■■,?.11■4in——axg**>?一M.一~=7-ySaM
02特斯拉FSD架構(gòu)詳解
匯二行上兌,告訴究泥
----------------------------------------------------------1.■,/一――<l4>C?dC."*?**..--?-
!v2iVIBIiEW
IFSD為一套包含感知/規(guī)控/執(zhí)行的全鏈路自動(dòng)駕駛軟硬件架構(gòu)a一一
■FSD架構(gòu):SfitS.算法、算力等各個(gè)H面打造了一套包含感知、授控、執(zhí)行在內(nèi)的全色28自動(dòng)國(guó)峽款硬性架構(gòu)
>規(guī)劃(Planning):本質(zhì)出1決多物體關(guān)以路徑I{瀏間IS.處里自我IC所有有象的行進(jìn)機(jī)跡,瘠導(dǎo)汽車完成相應(yīng)的執(zhí)行動(dòng)作
,tmm(NeuralNetworks):通過(guò)分析做流等信息,喻出越的運(yùn)動(dòng)學(xué)狀態(tài)(位?/3廈/&!速陵/NI.)按制車輛
,WIWRW(TrainingData):通過(guò)■新的4。自動(dòng)標(biāo)注》術(shù).升般畏抑仿■及云洗計(jì)黃羽海,形成數(shù)據(jù)閉環(huán)
,UHiSSttifitt(TrainingInfra):SJSCPU,GPU.喇(2網(wǎng)絡(luò)加速Hm元(NcwolNetworkAccelerator).AMS閑B等,值中AMS逐fiSHE懦
支持神百絡(luò)所需的新搠乍,將它們映射到最佳的客居硬件資Alt
“AUfi逢與旭hAlCompiler&Inference):卻如何在計(jì)11機(jī)上近行裨經(jīng)硼8.當(dāng)附的推理引擎施林樁單個(gè)肄及網(wǎng)絡(luò)的執(zhí)行£配封的個(gè)技立的芯
片系統(tǒng)上執(zhí)行,可以理解價(jià)酒臺(tái)獨(dú)立的討算機(jī)在同一國(guó)自動(dòng)與就計(jì)貨機(jī)內(nèi)相互連攝
C/二一:':”.
n-w
t
Vn0atKfvwwtt
'H一二-j-:一
t
iwwniCWB
,AflftoUMugSmsWUMDMA|
即叩:TESLA2022Alday,youluZ.AWR研
5
自動(dòng)駕駛規(guī)劃(Planning)
2.1一我該怎么走?
二一行也強(qiáng)省陰為泥
比制聞?wù)桃脖罄?EU4;F6
|基于VectorSpace的FSD路徑規(guī)劃,能夠快速產(chǎn)生最優(yōu)自回
,。體解決路日:從一組挽姓M■開(kāi)始.蝮車道、占用率、輅動(dòng)物體等(這些整駛現(xiàn),決策倒生成
為稱斑的油象和滑在椅征),感知將到的VectorSpace,通過(guò)VectorSpec流劃出?IR初用經(jīng)典的優(yōu)化方法來(lái)g律現(xiàn)圮路徑.
后續(xù)潛在目除狀態(tài),迸f考慮細(xì)分互動(dòng),得到?jīng)Q策規(guī)劃的跆徑
mmsM4nai.*)fnRwi-
5msM時(shí)間
?超削立了回MB可童詢R皓.
【Tesla車隊(duì)中人類行幽飛笠數(shù)據(jù)】
4WVS【魂陽(yáng)訶約束的閽線;V:下系統(tǒng)規(guī)
劃的金?時(shí)路徑],麗不斷進(jìn)行時(shí)
比小隊(duì)能夠在lOOus內(nèi)4成一人侯選
T??云?飛-It*
X修順路徑
;:::、&t"QCtwe
:t,?濃tblx>
4AT?4V”-決策宙剪校/評(píng)分
笊令人9。
?「::」
溪領(lǐng)》6硼儂合,畫(huà)他
紂@戊分新lAA^et?r?tR個(gè)方法進(jìn)行俵選器往淬牯[誠(chéng)
03-9Y7■“**>7”明枝
.TULA2022M(teyycututwflNfflmMIZ行龍近告5.
w?**???
8
MSB
基于VectorSpace的FSD路徑規(guī)劃,能夠快速產(chǎn)生最優(yōu)解??■????■?■?
□對(duì)于未JE及不埠定性(cornercase)的決策——遇過(guò)至此,衿幡拉FSD收接般構(gòu)浮出水面:
OccupancyNetwork對(duì)可檢區(qū)域進(jìn)例睢用來(lái)處理未知■先,通醴城《知網(wǎng)絡(luò)生成三?向■空間,對(duì)于僅m-耐問(wèn)?,可■勝
不可見(jiàn)場(chǎng)景成明確的雙控方案,而對(duì)于為多個(gè)可選方家的■雜問(wèn)出,使可向■空間和感颯
?1mm4MoffifiMUPttim,mm培耀取的中間層特征,訓(xùn)攜神經(jīng)網(wǎng)絡(luò)規(guī)劃H,灣為軌法分布
反應(yīng)與存在可幅謂數(shù)科分源.將到非常類似人的行為具次.收入成本的數(shù).人工干預(yù)由《或其他仿U模擬致密.決附加的規(guī)控方靠
?理生躁向、加速等控制指臺(tái),由執(zhí)行橫埃接受控制指合,現(xiàn)自動(dòng)駕裝
TESLA和22Ald?y,ygiuW.■呷5WM
神經(jīng)網(wǎng)絡(luò)(NeuralNetworks)
2.2為什么要這么走?
;行業(yè)強(qiáng)為陰見(jiàn)泥
i—?“—CV1OA■?*v*7*■??
一邦!2劣
占用網(wǎng)絡(luò)(OccupancyNetwcrk)
我周圍有什么?如何分布
-:,行業(yè)拒告陰無(wú)泥
升級(jí)至Occupancy能夠有效優(yōu)化障礙物識(shí)別問(wèn)題
Wert
ge-fnu43mw^.g
WM”Ruerml?lcap*“i|w
FwJRecungiesvtWvmei
rcorrvjM^
e血ztg
tnxk
gWAP1INKAUTONCWOUSBR,.臨研究所行業(yè)能告胡允沅
■舒明MUEUJS初I,.工也y
jHydraNets(九頭蛇網(wǎng)絡(luò))為視覺(jué)感知網(wǎng)絡(luò)的基礎(chǔ)結(jié)構(gòu)胃~
網(wǎng)絡(luò)基踐結(jié)構(gòu)一九頭蛇網(wǎng)絡(luò)(Hydra、et$)由主干
(Backbone).?B(Necl<))MS4分支頭都
(Head)其同切以主干層將肥B班如8通過(guò)理總神
經(jīng)對(duì)京RegNH雙多尺9用征收合組K&FPN浣成就
雕忖㈱,H取出頸部百多尺展發(fā)笠得征空間(multi-
walefeatures),?后在頭部層根據(jù)下網(wǎng)任務(wù)類一
成子鋼絡(luò)說(shuō)施并帕出感知結(jié)梟
優(yōu)劣一:18W^?(Fe*tureSharirrnj)使用網(wǎng)一生干
網(wǎng)絡(luò)例取1輒并共享培頭部便用,可$謝試前線分!|
在車上運(yùn)行的前向判昕..訪小ZMXitlUBB
象,防碘運(yùn)欣事
優(yōu)丹二:任務(wù)XIX(DeCouplesTas(s).不牌類武
于任務(wù)之強(qiáng)可以送行H耀,這擇可以Q--項(xiàng)任
務(wù),對(duì)收頁(yè)任務(wù)的升鍛不必驗(yàn)證K妁“為是西正謝,升
檢入原始數(shù)據(jù).*£?本更低
通過(guò)backbone優(yōu)為三:的緣存(RepresentationBottleneck).
進(jìn)行特征提取因?yàn)檫@里存碎i郎,可以痔椅1迎|存至理食,具有酸煽
的于晨怪
責(zé)F儲(chǔ)R:T6SLA2021Alday.youtube.部細(xì)的A3上行業(yè)報(bào)告陰覺(jué)院
I通過(guò)端到端的感知訓(xùn)練模型,從數(shù)據(jù)輸入到空間向量輸出胃55眄
口S8p1MM入《ImageInput);校制個(gè)相機(jī)的■片,將*12過(guò)取涮M(而等典型的維)臉加期6?多了4位皿窿使,
動(dòng)態(tài)范圖握升1*8,同時(shí)延源退(無(wú)需在循環(huán)中運(yùn)行窗像信號(hào)處凰SP)
□Step2BB像校準(zhǔn)(Rectify):通過(guò)不向的汽車采集到的數(shù)明共同構(gòu)建一通用感知阿絳黎梅,不同汽車由于8S◎頭安裝外i?的是異,可
髭領(lǐng)I采堂的敬據(jù)存在寅小電6.為此特班拉在魅知修架中1QA了一層?颯標(biāo)準(zhǔn)相機(jī)(virtudcamera)",引入圖像頭標(biāo)定的將的銬車
采集到的3E像初8通過(guò)去豌交、卷外等方式處理后.皖一茨射到同一重虛擬標(biāo)謝像頭坐標(biāo)中,從而實(shí)現(xiàn)各輯像頭飄的數(shù)據(jù)交灌,消除外
“淇&,強(qiáng)保COSTS飪,畤歌漉忌的效,0超主干部紇網(wǎng)絡(luò)進(jìn)行就的
□Step3將征提取(ImageFeaturizers):用一組RegNet(特定殘裝網(wǎng)絡(luò),specificclassofresnets)和BiFPN(詞權(quán)雙司特征金字塔
網(wǎng)絡(luò))作為攝取圖像空間特怔的主干
S?:⑻3snwnMS用0PWSW
燙八來(lái)》TESLA2021AIday.youZb..■呻的二行龍拒告陰死沅
I通過(guò)端到端的感知訓(xùn)練模型,從數(shù)據(jù)輸入到空間向量輸出■邨江—寺??
□Step4構(gòu)造空獻(xiàn)”1(SpacedAttention):將圖像頭采集胤的散堀通過(guò)【BEV空期弱海】構(gòu)造電3M■.悶時(shí)將冰陵信息作為
Q(key)值(value).%入洽一個(gè)注電力橫生(核心鎮(zhèn)塊也【Transformer燧對(duì)箔)).注意力橫型的輸出是高雄空向精征,X些高堆空
間特征與車幫上的般秘?cái)?shù)據(jù)法行事時(shí)砂閑,來(lái)推導(dǎo)出運(yùn)動(dòng).該方案厲在于可以桁城而坡度、的軍號(hào)幾何膨狀的變化情況口化進(jìn)神蛀
網(wǎng)絡(luò)的機(jī):填口故中
□Step5m?n(TemporalAlignment):上述松I空⑻也時(shí)桁征經(jīng)過(guò)一指反卷聯(lián),產(chǎn)生■終的占用積0占用軍藻輸出,刁們生成的
是31定尺寸塊的用恪,為7姐精度,模里還生成了pervolexfeatureMAP輸入到Ml阱,借的3D空間點(diǎn)景潸(quety)來(lái)支取任意點(diǎn)
的色■和語(yǔ)義信息
:8EV?Tr?nsfomie
TESLA2021AJ”號(hào).ywwbe,03的案謀”?任公2021AlSy.
.wA4c-i"~17—4—
扁窮3H正義海的也日,?3砌>一16
?那II另
車道線及障礙物感知(Lanes&Cbjects)
2.2.2周圍的物體下一步去往哪里?
二一.行衛(wèi)拒告的為泥
展%1圖8.11X2六0-B&JWF
基于3DOccupancy迭代車道線及障礙物:知模型
□早期.將車道梏賽同這1*橫為一個(gè)國(guó)像空間內(nèi)實(shí)時(shí)分初的任覺(jué),只能從幾阱不同的幾何形狀中帆車遒.具體而IL可以
分別出當(dāng)前車源相鄰車道,隱特別處理一和合并的情況,然后用粗路的地a瞰察對(duì)其進(jìn)行增濕這種閽圖理對(duì)
高速這種高度結(jié)構(gòu)化的跑是有效的
□當(dāng)?shù)?引入MapComponent,使用渡地圖中關(guān)于車道線幾何力5撲關(guān)系的值患(車遍線知/寬度.將限三iM性
等),并將這些旗!整合起來(lái)進(jìn)行編碼,與颯蜘利的桁征信患一起生成年雌(Dens。WorldTensor)蛤*后續(xù)
VectorLane?Q^
型囊:車!1則to*蛔!g
告所允院
問(wèn)題一:如何預(yù)測(cè)車道?
KILA2O?AJdayyoutubw.行業(yè)強(qiáng)匍形涉
???—~**?><*-7-r??**■?
時(shí)hems義2后的19
I問(wèn)題二:如何預(yù)測(cè)道路上其他對(duì)象的未來(lái)行為胃--
□頻器所壽猊體的屬性,在實(shí)行系維上造成了
TM體MM??讓SMtUe分實(shí)
理“率Ai大化.自動(dòng)“城才場(chǎng)變化的環(huán)境
做出快速反應(yīng).?7S?D延遲,崢紋坷
勢(shì)幡分為兩個(gè)船輪:
?#T酸,曲定時(shí)能在3D3間中的位■
?Mmm,在曲3Mz?即瞰量,觀眸
WU的聯(lián)外敏卿0T其他JH?
O這個(gè)規(guī)也步驟使蹲澗及阿格學(xué)注于計(jì)??關(guān)
mstt.1帆聞財(cái)賽I幽成本聯(lián)用優(yōu)
方峰》:副的防工.行業(yè)布告胡見(jiàn)品
TESLA2022AJtk?y.youtube,?■????.?*?>******、-<一.?■■■
MW0Aai£X2?mia*BOyA?ia?.20
訓(xùn)練數(shù)據(jù)(TrainingData)
——為什么這么走是正確的?
二一行也摳告的孔沅
,——CMC.—'M--^■?am*
"9mLi
號(hào),■為12男
2.3.1自動(dòng)數(shù)據(jù)標(biāo)注(AutoLabeling)
j由2D手工標(biāo)注逐步升級(jí)為4D自動(dòng)標(biāo)注,數(shù)據(jù)閉環(huán)趨于完善胃--
[外包第三方進(jìn)行敷據(jù)標(biāo)注I:如超io。。人團(tuán)隊(duì)送行手工標(biāo)注[自a南注
BHL:麗自,主
期根源:TESLA2021Alday.youtube.的
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年干細(xì)胞治療神經(jīng)系統(tǒng)疾病臨床應(yīng)用臨床研究政策建議報(bào)告
- 智能穿戴醫(yī)療設(shè)備在運(yùn)動(dòng)健身監(jiān)測(cè)中的應(yīng)用與創(chuàng)新報(bào)告
- 電商平臺(tái)知識(shí)產(chǎn)權(quán)保護(hù)與品牌建設(shè)關(guān)系分析報(bào)告
- 基層醫(yī)療衛(wèi)生機(jī)構(gòu)信息化建設(shè)中的信息安全與風(fēng)險(xiǎn)防控報(bào)告
- 2025年政策調(diào)控背景下房?jī)r(jià)走勢(shì)與房地產(chǎn)市場(chǎng)政策調(diào)整路徑優(yōu)化研究報(bào)告
- 2025年工業(yè)互聯(lián)網(wǎng)平臺(tái)邊緣計(jì)算硬件架構(gòu)邊緣計(jì)算設(shè)備多場(chǎng)景應(yīng)用案例分析報(bào)告
- 金融行業(yè)數(shù)據(jù)治理與隱私保護(hù)技術(shù)評(píng)估與認(rèn)證報(bào)告2025
- 2025年電商平臺(tái)大數(shù)據(jù)驅(qū)動(dòng)的用戶畫(huà)像拓展與精準(zhǔn)營(yíng)銷報(bào)告
- 新解讀《GB-T 39135-2020建筑光伏玻璃組件色差檢測(cè)方法》
- 新解讀《GB-T 38826 - 2020 IPTV媒體交付系統(tǒng)技術(shù)要求 總體要求》
- 2025年清華emba面試題及答案
- 燃?xì)獠少?gòu)管理辦法
- 物料請(qǐng)購(gòu)管理辦法
- 教師身體健康管理指南
- 《金恒織襪機(jī)WD2001D-6F操作手冊(cè)》
- 外研版八年級(jí)英語(yǔ)下冊(cè)期末復(fù)習(xí)之閱讀還原【答案+解析】
- 晚期腫瘤病人的臨終關(guān)懷與護(hù)理
- 肝膿腫病人護(hù)理
- 2025至2030中國(guó)薏米市場(chǎng)運(yùn)行形勢(shì)與投資前景預(yù)測(cè)分析報(bào)告
- 2025全國(guó)農(nóng)業(yè)(水產(chǎn))行業(yè)職業(yè)技能大賽(水生物病害防治員)選拔賽試題庫(kù)(含答案)
- GB/T 3923.2-2013紡織品織物拉伸性能第2部分:斷裂強(qiáng)力的測(cè)定(抓樣法)
評(píng)論
0/150
提交評(píng)論