汽車行業(yè)智能駕駛系列深度之六:AI加持城市NOA落地高階智能化迎來蝶變時刻_第1頁
汽車行業(yè)智能駕駛系列深度之六:AI加持城市NOA落地高階智能化迎來蝶變時刻_第2頁
汽車行業(yè)智能駕駛系列深度之六:AI加持城市NOA落地高階智能化迎來蝶變時刻_第3頁
汽車行業(yè)智能駕駛系列深度之六:AI加持城市NOA落地高階智能化迎來蝶變時刻_第4頁
汽車行業(yè)智能駕駛系列深度之六:AI加持城市NOA落地高階智能化迎來蝶變時刻_第5頁
已閱讀5頁,還剩25頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

目錄一、理論方法突破:AI大模型用于感知融合,后續(xù)有望實現(xiàn)端到端 .-4-1.1智能駕駛系統(tǒng)的核心模塊與功能41.2Transformer大模型的演進與原理61.3Transformer在智能駕駛的具體應(yīng)用12FSDNOA即將規(guī)模落地16特斯拉:FSDV12版本162.22023H2開始落地18三、國內(nèi)高階智能化蝶變時刻:供給創(chuàng)造需求,滲透率有望大幅提升223.1SUV及電動化發(fā)展復(fù)盤:5%-10%滲透率后,供給優(yōu)化驅(qū)動滲透率快速提升-22-3.2高階智能駕駛:2023H2供給側(cè)質(zhì)變,后續(xù)滲透率快速提升23四、產(chǎn)業(yè)影響:整車格局重構(gòu)和零部件賽道重估254.1整車格局可能因為智能化突破產(chǎn)生新的變化254.2智能駕駛增量/全新部件市場空間的增長有望超預(yù)期27-五、投資建議:AI加持,看好高階智能化的產(chǎn)業(yè)機會29六、風(fēng)險提示:30圖目錄1、智能駕駛系統(tǒng)的主要模塊42、傳統(tǒng)的智能駕駛方案(后融合)53、基于感知大模型的智能駕駛方案(BEV+Transformer做特征融合)54、基于端到端大模型的智能駕駛方案(感知決策一體化)65、Transformer大模型發(fā)展歷程66、Transformer大模型的演進77、Transformer大模型進化樹78Q,K,V的來源79、自注意力機制的計算710、多頭注意力機制示意圖8、多頭注意力的計算812、Transformer模型的原理示意圖813、前饋神經(jīng)網(wǎng)絡(luò)示意圖914、反饋神經(jīng)網(wǎng)絡(luò)示意圖915、卷積神經(jīng)網(wǎng)絡(luò)(CNN)示意圖916、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)示意圖917、VIT模型整體架構(gòu)1018BEV+Transformer的方法1119、Transformer實現(xiàn)圖像的時空融合的原理示意圖(BEVFormer為例)...-1120、Transformer實現(xiàn)多模融合原理示意圖(以攝像頭和激光雷達融合為例)1121、BEV感知架構(gòu)1222360度車身1223、特斯拉各個攝像頭信息融合形成鳥瞰圖12248BEV空間1325、特斯拉實現(xiàn)目標檢測的網(wǎng)絡(luò)架構(gòu)示意圖1326、HydraNetsTransformer的架構(gòu)1327OccupancyNetwork結(jié)構(gòu)示意圖1428、目標檢測示意圖1429、語義分割示意圖(2D3D)1430、CVPR2023UniAD15圖31、FSD分區(qū)域銷量滲透率情況 .-17-32、小鵬智能駕駛發(fā)展路徑1933、蔚來智能駕駛發(fā)展歷程2034、理想汽車智能駕駛發(fā)展進程2035SUV滲透率2236、國內(nèi)新能源乘用車滲透率2237、2009-2014SUVTOP10的產(chǎn)品(單位:輛)2338、2018-2020TOP10的產(chǎn)品(單位:輛)2339、目前特斯拉/華為/小鵬理想/蔚來智駕硬件成本估計(單位:元)2440、高階輔助駕駛滲透率展望(單位:萬輛2541、生產(chǎn)技術(shù)/產(chǎn)品技術(shù)/需求挖掘的代際變革與邊際優(yōu)化(橫軸為年份)2642、大模型的“涌現(xiàn)”現(xiàn)象示意圖27表目錄1、FSD發(fā)展歷史情況172、2023NOA相關(guān)進展及規(guī)劃183、特斯拉/華為/小鵬/理想/蔚來輔助駕駛硬件配置梳理244、智能駕駛相關(guān)賽道市場空間測算285、相關(guān)標的盈利預(yù)測與估值(PE2023717日收盤價)30報告正文一、理論方法突破:AI大模型用于感知融合,后續(xù)有望實現(xiàn)端到端智能駕駛系統(tǒng)的核心模塊與功能智能駕駛系統(tǒng)可分為感知(eceton,預(yù)測ecton,規(guī)劃anng,控制(Control)幾個主要模塊。感知模塊(Perception)主要負責(zé)車周信息感知和目標檢測。感知模塊輸入各類傳感器的數(shù)據(jù),輸出車道線,行人,車輛等的位置和軌跡等信息。感知算法的核(2D還原為3D。預(yù)測模塊(Prediction)主要負責(zé)預(yù)測車周物體的運動,評估障礙物下一時刻可能的動作。預(yù)測模塊輸入車周物體和車輛自身的位置與速度等信息,輸出物體運動軌跡的預(yù)測。決策規(guī)劃模塊(Planning)主要負責(zé)計算車輛下一時刻的運動路徑,向控制模塊輸出指令。(1)全局路徑規(guī)劃(oueannng(2)行為決策層(ehaoralaer(3)運動規(guī)劃(oionannng控制模塊(Control)主要負責(zé)精準控制車輛按規(guī)劃軌跡行駛。控制模塊根據(jù)決策規(guī)劃的路線,生成具體的加速、轉(zhuǎn)向和制動指令,控制驅(qū)動系統(tǒng),轉(zhuǎn)向系統(tǒng),制動系統(tǒng)和懸架系統(tǒng)。圖1、智能駕駛系統(tǒng)的主要模塊資料來源:上海人工智能實驗室,Transformer模型加速智能駕駛能力的提升。智能駕駛的本質(zhì)是通過訓(xùn)練使車輛具有人類的駕駛能力,用神經(jīng)網(wǎng)絡(luò)模型替代基于規(guī)則的算法,可提升模型表現(xiàn)。(1)CNNRNNAI(2)現(xiàn)在,在asfoer模型引入CV領(lǐng)域和智能駕駛領(lǐng)域后,智駕能力的提升明顯加速。BEV+Transformer做特征融合,相CNN模型具有更好的全局感知能力;在預(yù)測模塊,有研究表明基于TransformerRNN等神經(jīng)網(wǎng)絡(luò)也有更好的效果;AI模型的算法相比于基于大量規(guī)則的算法也更加簡潔高效。(3)Transformer有望實現(xiàn)感知決策一體化的大模型。相較于目前模塊化的開發(fā)方式,可以避免級連誤差,提升視覺信息表達,優(yōu)化終端性能體驗。AIBEV+Transformer做特征融合,提升感知能力。車輛獲取外部信息的傳感器包括攝像頭,激光雷達,毫米波雷達,超聲波雷達等,不同傳感器獲取的信息特征不同,因此需要通過算法將各類數(shù)據(jù)融合。過去多傳感器融合采用后融合的方式,將傳感器各自處理后的信息做基于統(tǒng)計學(xué)模型的加權(quán)運算,這樣會出現(xiàn)數(shù)據(jù)損失。現(xiàn)在利用Transformer大模型可以提取3D坐標系空間(BEV)內(nèi)做特征融合,還可以結(jié)合時序信息進行動態(tài)識別,最后進行多任務(wù)輸出,如靜態(tài)語義地圖、動態(tài)檢測等。AI大模型的加持下,智能駕駛的感知能力可以明顯提升,優(yōu)化CornerCase的處理,同時由于車輛生成了動態(tài)語義地圖,可以減少對高精地圖的依賴。圖2、傳統(tǒng)的智能駕駛方案(后融合)資料來源:圖3、基于感知大模型的智能駕駛方案(BEV+Transformer做特征融合)資料來源:AI加速智能化第二步:感知決策一體化,實現(xiàn)端到端的智能駕駛。目前采用的模塊化的智能駕駛開發(fā)架構(gòu)(感知—預(yù)測—規(guī)劃—控制)優(yōu)勢在于簡化研發(fā)團隊分工,但是缺點在于會出現(xiàn)信息損失和累計誤差問題,同時每個模塊的優(yōu)化目標不一致。我們認為,基于TransformerAttenion機制,未來智能駕駛有望統(tǒng)一感知與決策算法模塊,實現(xiàn)端到端的大模型,即一個模型輸入傳感器數(shù)據(jù),直接輸出控制信號。端到端的智能駕駛可以避免累積錯誤或任務(wù)協(xié)調(diào)不足的問題。圖4、基于端到端大模型的智能駕駛方案(感知決策一體化)資料來源:Transformer大模型的演進與原理Transformer2017AI大模型,最早用于自然語言處理領(lǐng)域。人工智能的核心技術(shù)是神經(jīng)網(wǎng)絡(luò)模型,較為主流和有效的神經(jīng)網(wǎng)絡(luò)模型主要包括卷積神經(jīng)網(wǎng)絡(luò)(NN、循環(huán)神經(jīng)網(wǎng)絡(luò)(NN、深度神經(jīng)網(wǎng)絡(luò)(DNN)和脈沖神經(jīng)網(wǎng)絡(luò)(SNN)等,主要應(yīng)用于自然語言處理(NLP)和計算機視覺(CV)等領(lǐng)域。2017年谷歌在論文《AttentionisallyouneedTransformer大模型,在眾多自然語言處理問題中取得了非常好的效果。TransformerEncoder-Decoder類模型,舉例來說,BertEncoder,GPT2Decoder。5、Transformer大模型發(fā)展歷程資料來源:《Transformer-basedmodelsandhardwareaccelerationanalysisinautonomousdriving:Asurvey》,圖6、Transformer大模型的演進 圖7、Transformer大模型進化樹 資料來源:DeephubImba, 資料來源:佐思汽車研究,asfoer(lt-HeadAtteton。注意力機制:通過找到查詢(Query)鍵(Key)的相關(guān)性,去找到最合適值uQ,KVXW(q)、W(k)、W(v)相乘得到Q,KV如q1X1×(q1)Q和KSoftmaxV相乘,計算加權(quán)求和。在智能駕駛的感知環(huán)節(jié)自注意力機制可以理解為用于提取一類特征。WQ、K、V,Z1-Zn。通過形狀變換進行合并,得到多頭注意力的最終輸出結(jié)果。在智能駕駛的感知環(huán)節(jié),多頭注意力機制可以理解為提取個特征。圖8、注意力機制中Q,K,V的來源 圖9、自注意力機制的計算資料來源:《TheIllustratedTransformer》,

資料來源:《TheIllustratedTransformer》,圖10、多頭注意力機制示意圖 圖、多頭注意力的計算 資料來源:《TheIllustratedTransformer》,

資料來源:《TheIllustratedTransformer》,Transformer模型包括編碼器(Encoder)和解碼器(Decoder)兩個部分。編碼器用于將序列轉(zhuǎn)換為一組向量表示,包括多頭注意力和前饋,解碼器用于將向量解碼為輸出序列,包括多頭注意力、編碼器-解碼器注意力和前饋。Multi-HeadAttention時,會分為三部分輸入(k、v、qvk和qk、v、qW(q)、W(k)、W(v)獲得的。多頭k、v、q,多頭之間的計算互不影響。Multi-HeadAttention也是自注意力機制,和編碼器的過程類似。encoderdecoderMulti-HeadAttention是非自注意力機制,這里的qOutputMaskedMulti-HeadAttentionAdd&Norm層之后的輸出,k、vencoder編碼器。圖12、Transformer模型的原理示意圖資料來源:《AttentionIsAllYouNeed》,TransformerCNNRNN模型可以捕捉長序列內(nèi)的依賴關(guān)系的優(yōu)勢。神經(jīng)網(wǎng)絡(luò)模型可以分為前饋神經(jīng)網(wǎng)絡(luò)和反(1)饋(循環(huán)。常見的前饋神經(jīng)網(wǎng)絡(luò)如卷積神經(jīng)網(wǎng)絡(luò)(NN(2)反饋神經(jīng)網(wǎng)絡(luò)中,神經(jīng)元不但可以接收其他神經(jīng)元的信號,而且可以接收自己的反饋信號,常見的反饋神經(jīng)網(wǎng)絡(luò)如循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)。Transformer模型利用注意力機制實現(xiàn)了并行化捕捉序列依賴,并且同時處理序列的每個位置的Tokens。因此相對于CNN模型,TransformerRNN模型,Transformer模型有更高的并行度,且能保存更多的前期數(shù)據(jù)。圖13、前饋神經(jīng)網(wǎng)絡(luò)示意圖 圖14、反饋神經(jīng)網(wǎng)絡(luò)示意圖資料來源:算法進階, 資料來源:算法進階,圖15、卷積神經(jīng)網(wǎng)絡(luò)(CNN)示意圖 圖16、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)示意圖資料來源:算法進階, 資料來源:算法進階,2020VITTransformerCV領(lǐng)域的應(yīng)用。Transformer作為序列到序列學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)大模型,最早用于自然語言處理,如機器翻譯等場景中。2020年谷歌論文《AnImageIs16x16TransformersForImageRecognitionAtScale》提出的VIT模型(VisionTransformer)Transformer為backboneCV領(lǐng)域起到了很好的效果。由于Transformer主要是處理序列,VITpatchpatch投影為固定長度的向量送TransformerEncoderCNN中的卷積操作只能捕獲局部信息,而不能建立全局圖像的長距離連接,視覺Transformer的多頭注意力通qkv去捕捉全局的特征與特征之間的關(guān)系,可以獲取更多上下文信息,擴大圖像的全局感知。圖17、VIT模型整體架構(gòu)資料來源:《Transformer-basedmodelsandhardwareaccelerationanalysisinautonomousdriving:Asurvey》,VITTransformer引入自動駕駛領(lǐng)域。2020年特斯拉重寫智能駕駛軟件架構(gòu),2021AITransformerBEV感知BEV+Transformer將各個攝像頭的信息進行特征提取和融合。目前主流用BEV+Transformer的方法包括DETR3DPETRBEVFormerBEVAttention提取和對齊時間和空間維度的特征(19。在攝像頭視覺融合的基礎(chǔ)上,ansforer如圖20。圖18、目前主流用BEV+Transformer的方法資料來源:Nullmax首席科學(xué)家演講視頻截圖,圖19、Transformer實現(xiàn)圖像的時空融合的原理示意圖(以BEVFormer為例)資料來源:《BEVFormer:LearningBird's-Eye-ViewRepresentationfromMulti-CameraImagesviaSpatiotemporalTransformers》,圖20、Transformer實現(xiàn)多模融合原理示意圖(以攝像頭和激光雷達融合為例)資料來源:《Multi-ModalFusionTransformerforEnd-to-EndAutonomousDriving》,Transformer在智能駕駛的具體應(yīng)用BEV+Transformer做感知環(huán)節(jié)的特征融合。自特斯拉2020BEV(Bird’sEyeView)3D坐標系空間,把各個攝BEV空間內(nèi)做特征融合已經(jīng)成為視覺感知融合的前沿主流方案。BEV+Transformer可分成五步:(1)將攝像頭數(shù)據(jù)輸入到共享的骨干網(wǎng)絡(luò)(acbone,提取每個攝像頭的數(shù)據(jù)特征(feaure。(2)把所有的攝像頭數(shù)據(jù)(跨攝)BEV空間。(3)BEV空間內(nèi),進行跨模態(tài)融合,將像素級的視覺數(shù)據(jù)和激光雷達點云進行融合。(4)4D時空維度的感知信息。(5)多任務(wù)輸出,如靜態(tài)語義地圖、動態(tài)檢測等。目前,特斯Transformer+BEV等大模型進行視覺感知融合,可以識別車身周圍的各類物體,構(gòu)建動態(tài)實時地圖,在理論上可以擺脫或減輕對高精地圖的依賴。圖21、BEV感知架構(gòu)資料來源:地平線演講視頻截圖《上帝視角與想象力—自動駕駛感知的新范式》,九章智駕,圖22、特斯拉攝像頭覆蓋360度車身 圖23、特斯拉各個攝像頭信息融合形成鳥瞰圖 Teardown:Tesla’sHardwareRetrofitsforModel3》,

資料來源:2020年AndrewKarpathy技術(shù)演講截圖,興業(yè)證券經(jīng)濟與金融研究院特斯拉2021年先提出用BEV+Transformer實現(xiàn)目標檢測,又在2022年提出OccupancyNetwork升級到語義分割,進一步提升感知精度,同時避免碰撞。目標檢測(ObjectDetection)和語義分割(SemanticSegmentation)是CV領(lǐng)域的概念,目標檢測的任務(wù)是對輸入的圖像進行物體檢測,標注物體在圖像上的位置,以及該位置上物體屬于哪個分類,語義分割的任務(wù)是對輸入的圖像進行逐像素的分類,標記出像素級別的物體。目標檢測(OjectDetecton:目標檢測通用的結(jié)構(gòu)為:Input→BacboneNeckHeadOutputBackbone指特征提取網(wǎng)絡(luò),Head指在特征提取后的特征圖表示,Neck位于主干和頭部之間,用于提取一些更精細的特征。在特斯拉2021AI提出的神經(jīng)網(wǎng)絡(luò)架構(gòu)中,Backbone:選擇RegNet和ResNet為主要架構(gòu),Neck選擇BiFPNHead選擇HydraNets(采用了類Transformer的架構(gòu)。圖24、特斯拉將8個攝像頭的信息融合到BEV空間資料來源:特斯拉2022AIDAY,圖25、特斯拉實現(xiàn)目標檢測的網(wǎng)絡(luò)架構(gòu)示意圖 圖26、HydraNets采用類Transformer的架構(gòu) 資料來源:特斯拉2022AIDAY,

資料來源:特斯拉2022AIDAY,語義分割(ematicegmetaton:一般而言語義分割需要先分類,然后本地化/檢測,最后通過對每個像素進行密2022OccupancyNework占用網(wǎng)絡(luò)voeoxel賦值為,voxelvoxel0,在分割后進一步識別和判斷。Occupancy網(wǎng)絡(luò)最核心的升級正在于從目標檢測(ObjectDetection)升級到義分割(emancemenaon異性物體的能力大大增強,另一方面克服了目標檢測方法對于目標的外形高度敏感2023年雙能戰(zhàn)略發(fā)布會上也表示利用OccupancyGODOccupancy的框架。圖27、特斯拉OccupancyNetwork結(jié)構(gòu)示意圖資料來源:特斯拉AIDAY,圖28、目標檢測示意圖 圖29、語義分割示意圖(左圖2D右圖3D)資料來源:DeepLearningSpecialization,佐思汽車研究,

資料來源:TowardsaMeaningful3DMapUsinga3DLidarandaCamera,佐思汽車研究,Transformer大模型實現(xiàn)端到端的輔助駕駛。在模塊化的算法框架主要用來做感知環(huán)節(jié)的特征融合,以替代后融合的方案,提升感知能力并擺脫對高精地圖的依賴。但整體而言,感知和預(yù)測模塊的數(shù)據(jù)會再輸入到規(guī)劃決策模塊,再通過執(zhí)行模塊的計算輸出指令,各個模塊之間仍然是分離的。我們認為未來基于大模型有望實現(xiàn)端到端的輔助駕駛,即傳感器的數(shù)據(jù)輸入大模型后直接輸出執(zhí)行信號。FSDbetaV12版本有望率先實現(xiàn)端到端的大模型,遠期國內(nèi)車企也有望實現(xiàn)端到端。CVPR2023最佳論文《Planning-orientedAutonomousDriving》提出的算法UniAD為例解釋端到端智能駕駛的實現(xiàn)方式。UniAD2個感知模塊,21個規(guī)劃模塊組成:TrackFormer:用于動態(tài)元素的特征提取,例如車輛和行人的幀間跟蹤。MapFormer:用于靜態(tài)元素的特征提取,以及實例級的地圖預(yù)測。MotionFormer:將動態(tài)與靜態(tài)元素的特征融合,進行長時序的軌跡預(yù)測。OccFormerBEV,進行實例級的預(yù)測。PlannerqueryOcc的碰撞優(yōu)化進行規(guī)劃。可以從圖中看到,感知和預(yù)測模塊都是基于TransformerQ模塊串聯(lián)起來,其中,TrackFormerQueryPlanner模塊,以此Transformer的端到端模型。圖30、CVPR2023最佳論文提出的端到端的輔助駕駛算法框架UniAD資料來源:《Planning-orientedAutonomousDriving》,二、產(chǎn)業(yè)進展突破:海外特斯拉FSD快速升級,國內(nèi)城市NOA即將規(guī)模落地特斯拉:FSDV12版本海外特斯拉FSD的新一代的升級即將完成。特斯拉FSD誕生以來經(jīng)歷過幾次重大升級,當前FSD在BEV+transformer+占用網(wǎng)絡(luò)的底層支持下有望完成新一代的升級,有望大幅提升FSD的高階智能駕駛能力和迭代速度。2017-2019年Mobileye主導(dǎo)時代。2016FSD算法全部由Mobileye提供,Mobileye沿用傳統(tǒng)視覺路線,采用低精度地圖+算法迭代實現(xiàn)自動駕駛功能;2016年到2019年間,特斯拉加大對視覺感知算法的研發(fā)投入,逐步建立起自身的軟件和算法框架。2019-2020年FSD芯片上車,全棧自研第一階段。2019年起,F(xiàn)SD芯片上車,特斯拉加快了軟件的迭代速度,同時開始發(fā)展視覺神經(jīng)網(wǎng)絡(luò),在純視覺感知路線上不斷深耕。2019年到2023,BEV、transformer、占用網(wǎng)絡(luò)等引入,全棧自研第二階段。2021年7月推送的FSDBetaV9用Vision視覺方案。經(jīng)過多次迭代,最新版本FSDBetaV11.4.25月推送,修復(fù)了此前版本中存在的諸多BUGB柱攝像頭的可視范圍從262英尺(80米)擴展到623英尺(190米,可以讓SD系7-8秒,更早發(fā)現(xiàn)前方路況信息,并讓駕駛員有更充足的時間做出反應(yīng)。2023H2最新FSD12版本有望推出。2023FSDV12,AI更新其全自動駕駛包。AI算法訓(xùn)練的數(shù)據(jù)基礎(chǔ),基于海AI算法訓(xùn)練,使智能駕駛系統(tǒng)能夠像成熟人類司機一樣接管cornercase,應(yīng)對復(fù)雜路況。此外,據(jù)馬斯克透露,F(xiàn)SDV12Beta版本。這意味著特斯拉有可能在年內(nèi)正式向北美用戶推送FSD的完整版。表1、FSD發(fā)展歷史情況資料來源:特斯拉官網(wǎng),雪球,未來智庫,車家號,搜狐,百度,IT之家,36氪,新出行,騰訊網(wǎng),懂車帝,海外特斯拉FSD滲透率未來有望大幅提升TroyFSD2019Q245.7%,主要原因是前期特斯拉銷售主力車型是ModelS、ModelX,客戶群體預(yù)算較為充足對價格相對不敏感。Model3、ModelY等價格較低車型銷量占比持續(xù)提升,該部分群體對FSDFSD滲透率走低,2022Q37.4%2022FSDBetaV11版本的發(fā)布使得車輛決策時間尤其在左右轉(zhuǎn)時大大縮短,延遲減小,性能和使用體驗顯著提升,202211FSDBeta不再對安全評分進行要求,可以向幾乎全部北FSD已購買或訂閱車主進行推送。截至2023140萬北美用戶FSDBeta20221228.540%。我們預(yù)計FSDV12完整版的到來,F(xiàn)SD功能趨于完善,消費者的付費意愿不斷增強,F(xiàn)SD滲透率有望加速向上。圖31、FSD分區(qū)域銷量滲透率情況資料來源:TroyTeslike,“超級計算機”Dojo投產(chǎn)運行將助力FSD性能躍升,助力特斯拉實現(xiàn)全面自動駕駛。近期,特斯拉披露了特斯拉首臺“超級計算機”Dojo的進展,其計劃于7月正式投入生產(chǎn),到2024年初,將成為全球最先進的5臺超級計算機之一。Dojo是用來處理AI任務(wù)的超級計算機,可以幫助特斯拉更高效地處理海量的車輛行駛數(shù)據(jù),包括車輛的傳感器數(shù)據(jù)、路況信息等等,從而提升特斯拉自動駕駛算法的準確性和安全性。一旦正式投入使用,或?qū)⑦M一步提升特斯拉電動車的計算機視覺能力,使FSD自動駕駛水平再上一個臺階。特斯拉方面稱,一旦Dojo啟動并運行,特斯拉完全自動駕駛系統(tǒng)FSDBeta將呈現(xiàn)“指數(shù)級提升”。2023H2開始落地1)2023H2城市NOA有望開始大規(guī)模推廣2021NOA2022年下半年,城NOA已經(jīng)從概念變成現(xiàn)實。20229P5NOASHI版綁定華為的解決方案,相繼在深圳、上海NOA2023NOA方面有了突破性進展,2023H2NOA即將大規(guī)模落地。表2、2023各車企城市NOA相關(guān)進展及規(guī)劃資料來源:騰訊網(wǎng),網(wǎng)易,IT之家,新浪財經(jīng),小鵬汽車:國內(nèi)首家上線城市NOA的車企,并預(yù)計于2024年實現(xiàn)車位到車位的全景輔助駕駛能力。201812月小鵬首次推出輔助駕駛系統(tǒng)Xpilot2.0G3MobileyeEyeQ4芯片。20211P7Xavier芯片,并配備自動駕駛輔助Xpilot3.0NGP高速領(lǐng)航輔助駕駛功能,實現(xiàn)“泊車+高速”雙場景覆蓋。20226G9中正式搭載了最新硬件系統(tǒng),將Xavier芯片替換為英偉達最新的OrinX芯片,打造出Xpilot4.0。2022年9月,小鵬汽車成為國內(nèi)首個上線城市NOA功能的車企,并開始在廣州進行點。20234扶搖全域智能進化架構(gòu),并搭載了XNGP智能輔助駕駛系統(tǒng)。目前,XNGPG9MaxP7iMax版車型,主要包括在上海、深圳、廣州、北京四座有高精地NGP。小鵬計劃在下半年在無高精地圖覆蓋的城市開放自動變道、超車、左右轉(zhuǎn)的能力,并預(yù)計在2024年推出XNGP的終極形態(tài),實現(xiàn)車位到車位的全場景輔助駕駛能力圖32、小鵬智能駕駛發(fā)展路徑資料來源:禾隱記,蔚來汽車:國內(nèi)首家實現(xiàn)NOA高速領(lǐng)航的公司,并計劃于下半年發(fā)布城區(qū)NOP+。蔚來于2017年12月便首次發(fā)布了第一代自動駕駛系統(tǒng)NIOPilot,ES8。202010月,蔚來自動駕駛系統(tǒng)首次融入高精度地圖,釋放的高速場景下點對點領(lǐng)航輔助駕駛功能,是國內(nèi)首家實現(xiàn)NOA高速領(lǐng)航落地的公司。20211NIO上,李斌發(fā)布NT2.0NAD自動駕駛系統(tǒng)。配備此系統(tǒng)的最新款ET720223月落地交付。202212NOP+,2023年7月,蔚來NOP+已于7月1日開啟商用。目前NOP+已經(jīng)在北京二環(huán)、三環(huán)、四環(huán)、五環(huán)等城市環(huán)路及快速路、高速公路實現(xiàn)全覆蓋。圖33、蔚來智能駕駛發(fā)展歷程資料來源:公司官網(wǎng),禾隱記,汽車之家,理想汽車:計劃2023年下半年開通城市通勤NOA。2019ONEMobileye,軟件基于易航智能。2021年理想開始強化智能駕駛的自研能力,智能駕駛計算平臺切換為地平J3512NOA高速導(dǎo)航輔助駕駛并優(yōu)AEB功能。2022ADMAX,感知、決策、規(guī)劃和控制軟件為全棧自研,智能駕駛計算平臺升級為兩顆英偉達Orin-X處理器,總算力達到508Tops,搭載于2022年3月發(fā)布的L9。2023年6月,不依賴高精地圖的城市NOA開啟內(nèi)測。2023年下半年,理想計劃開市通勤NOA功能。圖34、理想汽車智能駕駛發(fā)展進程資料來源:網(wǎng)易新聞,比亞迪:2022年開始自動駕駛路線從合作借鑒轉(zhuǎn)為建立自研能力,高速DNP功能將于今年三季度搭載于漢車型上。2021年底開始,比亞迪先后與Momenta202112月,Momenta成立了合資公司迪派智行,為雙方長期在智能駕駛領(lǐng)域攜手融合發(fā)展高階智能駕駛技術(shù)正式拉開序幕。2021年之后,比亞迪開始進入到第二個階段,合作借鑒建立自研的基礎(chǔ)能力。從功能層面看,比亞迪自研的高速DNP高階智能駕駛輔助相關(guān)功能即將在今年第三季度搭載漢車型上。漢之后,王朝系列唐、宋的部分版型也將迎來高階智駕功能。定位更高的騰勢、F品牌、仰望等,也已規(guī)劃或公布將搭載包括城市NOA的高階智駕功能BEV感知大模型比亞迪也將于今年內(nèi)部署,并且將會在下一步規(guī)劃部署占用網(wǎng)絡(luò)。長城汽車:毫末城市NOH預(yù)計今年三季度落地。2019年,長城汽車智能駕駛前瞻部與諸多科技公司自動駕駛?cè)瞬湃诤隙闪⒘撕聊┲切小?02161.53個激光雷達、8個毫米波雷達、3個視覺傳感器、高精度地圖、導(dǎo)航及定位系統(tǒng)等傳感器設(shè)備,實現(xiàn)L3級輔助駕駛功能。2022年1月5日,毫末智行攜與高通聯(lián)手研發(fā)的輔助駕駛域3.0128百萬像素攝像頭,5路毫米波雷達,3路激光雷達,為多視覺+多毫米波+多激光雷達的前融合感知算法,可滿足當前L3以及后續(xù)L4/L5等全場景自動駕駛功能的實現(xiàn)。毫末智行城市NOH預(yù)計在今年三季度落地,于2024年上半年即可完成落地城市100城的目標,實現(xiàn)點點互達。2025年更大規(guī)模全場景的NOH將更快落地,全面邁入全無人駕駛時代。華為:城市NCA已經(jīng)實現(xiàn)落地,并將實現(xiàn)更多無圖城市的落地。華為于2012年開始做汽車領(lǐng)域相關(guān)研發(fā),20194HiCar人-車-家全場景無縫互聯(lián)解決方案。2021418HI新品發(fā)布OSMDC810、4D成像TMS在內(nèi)的五大新產(chǎn)品。2022924NCA功能首發(fā)NCA15個無圖城市的落地,四3045城。2)城市領(lǐng)航輔助的落地將促進消費者的認知提升和主機廠的技術(shù)迭代。NOA的落地意味著高階智能駕駛的使用場景大幅度擴展,從之前的高速公路、封閉園區(qū)等特定場景擴展到更復(fù)雜的城市場景。對于用戶來講,高階智能駕駛的體驗也大幅度提升。之前在特定場景才能使用的高階智能駕駛相關(guān)功能,目前在日常通勤的城市場景也可使用。同時,對于體量較大以及自動駕駛算法正向研發(fā)能力強的頭部企業(yè)來講,使用場景的擴展意味著數(shù)據(jù)量更加豐富,進而使得算法迭代速度將提升。三、國內(nèi)高階智能化蝶變時刻:供給創(chuàng)造需求,滲透率有望大幅提升SUV及電動化發(fā)展復(fù)盤:5%-10%快速提升SUV滲透率和新能源滲透率的增長符合“S產(chǎn)業(yè)內(nèi)新技術(shù)的應(yīng)用和新產(chǎn)品的推廣往往不是線性的過程,而是符合“S曲線”的發(fā)展規(guī)律,在技術(shù)發(fā)展與產(chǎn)品應(yīng)用的早期,是供給創(chuàng)造需求,滲透率處于低位,愿意嘗鮮的消費者群體開始感受技術(shù)與產(chǎn)品的優(yōu)勢并將向身邊人傳播,這時也可能出現(xiàn)由于產(chǎn)品體驗不佳,大家對實際需求的質(zhì)疑。伴隨著技術(shù)的持續(xù)升級與產(chǎn)品體驗的持續(xù)提升,優(yōu)質(zhì)供給會擴大需求,同時可能出現(xiàn)供應(yīng)鏈為追求規(guī)模效應(yīng)降價,當“體驗/成本”到達某一奇點時,滲透率會快速提升。SUV滲透率和新能源滲透5%-10%區(qū)間之后出現(xiàn)快速增長。圖35、國內(nèi)SUV滲透率 圖36、國內(nèi)新能源乘用車滲透率 資料來源:中汽協(xié), 資料來源:中汽協(xié),5%-10%滲透率之后,供給優(yōu)化驅(qū)動電動車和SUV滲快速提升SUV細分市場的發(fā)展,2009-2012SUV5%-10%,2012SUV滲透率開始快速增長。2009-2012年間的核心變化是出現(xiàn)了哈弗H62012H6和途觀換代產(chǎn)品放2215萬輛,2012SUV滲透率快速增長。復(fù)盤新能源細分市場的發(fā)展,2018-20205%-10%,2021年后新能源滲透率開始快速增長。2018-2020年間,新能源市場受補貼影響較大,整體新能源車的產(chǎn)品力較弱。2020Model3,理想ONE,比亞迪漢等產(chǎn)品力較強的產(chǎn)品,2021年后新能源滲透率快速增長。圖37、2009-2014年SUV市場銷量TOP10的產(chǎn)品(單位:輛)資料來源:Marklines,紅色表示年銷量超過10萬輛的車型圖38、2018-2020年新能源市場銷量TOP10的產(chǎn)品(單位:輛)資料來源:Marklines,紅色表示年銷量超過10萬輛的車型高階智能駕駛:2023H2供給側(cè)質(zhì)變,后續(xù)滲透率快速提升供給優(yōu)化的趨勢:2023H1城市領(lǐng)航輔助駕駛大規(guī)模落地,后續(xù)預(yù)計“算法從供給端看,2023年開始頭部車企推出具有高階輔助駕駛功能的產(chǎn)品,并大規(guī)模落地城區(qū)NOA。一方面,伴隨著數(shù)據(jù)的累積和模型的訓(xùn)練,智能駕駛算法能力有望快速升級。另一方面,伴隨著算法的迭代和成熟,高階輔助智能駕駛有望減配高精地圖和激光雷達等高成本硬件。目前,國內(nèi)能夠?qū)崿F(xiàn)NOA功能的高階輔助駕駛硬件成本預(yù)計2.5-3(1)5000-10000萬元,主要取決于激光雷達的數(shù)量,目前單顆激光雷達價格預(yù)計3000-5000元。此外,高精地圖的成本(2)1.5-2.5萬元,主要取決于SoC芯片數(shù)量和價格,目前的英偉達的大算力SoC芯片價格仍較高,地平線等國內(nèi)供應(yīng)商和特斯拉/華為等自研芯片的成本預(yù)計較低。我們預(yù)計在“重感知輕”的路線下,伴隨著算法的迭代和成熟,高階輔助智能駕駛有望減配高成本硬50%。圖39、目前特斯拉/華為/小鵬/理想/蔚來智駕硬件成本估計(單位:元)資料來源:各公司官網(wǎng),佐思汽車研究,預(yù)計表3、特斯拉/華為/小鵬/理想/蔚來輔助駕駛硬件配置梳理資料來源:各公司官網(wǎng),汽車之家,未來幾年高階輔助駕駛有望進入滲透率快速提升過程。我們認為當下高階輔BEV+Transformer技術(shù)路線并持續(xù)升級的算法,一方面可以提升輔助駕駛功能的體驗,另一方面可2023NOA功能的車型包括:G6L7MAX/L8MAX/L9M511,我N7U82024年落地城市導(dǎo)航輔助駕駛。按照當前已知的車企規(guī)劃估計,2025年高階輔助駕駛滲透率10%。2025年之后,伴隨著體驗的升級和成本的下降,高階輔助駕駛滲透率有望快速增長。圖40、高階輔助駕駛滲透率展望(單位:萬輛)資料來源:注:銷量為對高階輔助駕駛版本的銷量預(yù)計,不表示對該車型所有版本的銷量預(yù)計四、產(chǎn)業(yè)影響:整車格局重構(gòu)和零部件賽道重估整車格局可能因為智能化突破產(chǎn)生新的變化智能駕駛產(chǎn)品技術(shù)上的代際升級有望驅(qū)動整車格局的新變遷。復(fù)盤全球和國內(nèi)車企崛起的經(jīng)驗,生產(chǎn)技術(shù)/產(chǎn)品技術(shù)/需求挖掘的代際變革和邊際優(yōu)化是一個車(1)從生產(chǎn)技術(shù)角度,汽車行業(yè)經(jīng)歷了手工生產(chǎn)—大批量生產(chǎn)—精益生產(chǎn)的代際性的變革,其中又有平臺化模塊化等生產(chǎn)方式創(chuàng)新帶來的降本增效,目前處于精益生產(chǎn)范式下平臺化模塊化生產(chǎn)的邊際優(yōu)化中。特斯拉采用一體化壓鑄技術(shù)大幅提升生產(chǎn)效率,國內(nèi)蔚來,極氪等企業(yè)也應(yīng)用一體化壓鑄生產(chǎn)后地板等零部件。從需求挖掘角度,汽車行業(yè)陸續(xù)出現(xiàn)跑車,平民車,大型轎車,皮卡,氣泡車,經(jīng)濟型轎車,SUV,MPV等細分市場,一些市場反應(yīng)敏捷的企業(yè)享受到細分市場快速成長的紅利。近年來家庭用車,女性用車,越野車等細分市場的需求挖掘給一些企業(yè)帶來機會,但隨著消費者選擇的多樣化,新的細分市場的挖掘難度加大,目前處于在各種細分市場的邊際完善中。從產(chǎn)品技術(shù)角度,汽車行業(yè)經(jīng)歷了馬車—燃油車—電動車的代際性變革,其中又有渦輪增壓,流線型設(shè)計等的持續(xù)優(yōu)化。我國汽車行業(yè)正處于從燃油車向電動車轉(zhuǎn)型代際變革中,比亞迪與理想汽車等企業(yè)在電動化浪潮中迅速崛起。我們認為,產(chǎn)品技術(shù)角度即將進入下一個代際跨越,即智能駕駛的代際升級:城市的大規(guī)模落地,高階智能駕駛進入城市場景。而智能駕駛的代際升級有望產(chǎn)生整車格局的變遷。隨著消費者越來越看重智能駕駛帶來的駕駛體驗的提升,智能駕駛能力有望成為消費者選擇汽車產(chǎn)品的重要因素,相關(guān)能力較強的車企有望實現(xiàn)彎道超車。圖41、生產(chǎn)技術(shù)/產(chǎn)品技術(shù)/需求挖掘的代際變革與邊際優(yōu)化(橫軸為年份)資料來源:《DK汽車大百科》,《我在通用汽車的歲月》,《福特傳》,《改變世界的機器:精益生產(chǎn)之道》,豐田汽車官網(wǎng),福特官網(wǎng),通用官網(wǎng),大眾官網(wǎng),本田官網(wǎng),維基百科,當前高階智能化作為技術(shù)代際升級,可能驅(qū)動行業(yè)格局的再變化L2+到L3-L4不是連續(xù)的技術(shù)邊際優(yōu)化,而是跨越式的技術(shù)升級。大規(guī)模神經(jīng)網(wǎng)絡(luò)的參數(shù)數(shù)量、訓(xùn)練數(shù)據(jù)等規(guī)模到達一定程度時,會出現(xiàn)定性的變化。如圖39Transformer定程度后,也有望迎來“涌現(xiàn)”時刻,智能駕駛的能力也有望大幅提升。即智能L2+級別提升到L3-L4或許不是連續(xù)的技術(shù)邊際優(yōu)化,而是跨越式的技術(shù)升級。因此,智能化的代際升級可能驅(qū)動整車格局變化,頭部企業(yè)與其他企業(yè)的技術(shù)差距可能會拉大。圖42、大模型的“涌現(xiàn)”現(xiàn)象示意圖資料來源:《EmergentAbilitiesofLargeLanguageModels》,智能駕駛增量/全新部件市場空間的增長有望超預(yù)期智能化將重塑汽車零部件價值鏈,高階智能化滲透率加快將驅(qū)動部分零部件賽道進展超預(yù)期。域控制器、線控制動、毫米波雷達、攝像頭以及4D毫米波雷達等是智能化受益新賽道。隨著電動智能化產(chǎn)業(yè)趨勢,發(fā)動機、燃油噴射系統(tǒng)、變速器、啟動電機及發(fā)電機、渦輪增壓、尾氣處理系統(tǒng)、油箱及燃油系統(tǒng)預(yù)計逐步萎縮。而自動駕駛的實現(xiàn)需要毫米波雷達、攝像頭、超聲波雷達、激光雷達、4D毫米波雷達等

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論