System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內的位置。 參數名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技術實現步驟摘要】
本專利技術涉及智能交通,特別是一種基于多任務學習的交互車輛軌跡預測與駕駛意圖識別方法。
技術介紹
1、隨著汽車數量的迅速增長,復雜的交通場景日益增多,準確預測交互車輛軌跡與識別駕駛意圖將有助于提升預警和干預的決策質量,從而有效避免碰撞事故的發生。此外,交互車輛軌跡預測與駕駛意圖識別方法還可應用于自動駕駛技術中實現車輛類人化軌跡規劃。然而,車輛的復雜行為、結構化道路的限制以及智能體之間的社會交互等都會對車輛軌跡預測與駕駛意圖識別構成挑戰。同時,在復雜交通場景中由于觀測不完全和物體遮擋會引起傳感器產生較高的噪聲,使得交互車輛軌跡預測與駕駛意圖識別的精度受到影響。由于循環神經網絡rnn及其變體能夠有效捕捉時間相關性,所以被廣泛地應用于交互車輛軌跡預測與駕駛意圖識別。然而,通常這種方法的降維過程將感知特征從編碼器傳輸到細胞,不僅會導致關鍵感知信息的丟失,而且甚至可能導致次優預測。這個問題在高密度交通流狀態下的交互車輛軌跡預測與駕駛意圖識別中尤為突出。此外,傳統的交互車輛軌跡預測與駕駛意圖識別通常采用模塊化設計,其通過分別構建交互車輛軌跡預測模塊和駕駛意圖識別模塊的方式實現相應交互車輛軌跡預測和駕駛意圖識別的功能需要耗費大量的計算資源。
技術實現思路
1、有鑒于此,本專利技術的目的在于提供一種基于多任務學習的交互車輛軌跡預測與駕駛意圖識別方法,以解決交互車輛軌跡預測與駕駛意圖識別中使用的自回歸模型存在固有的誤差積累,以及基于模塊化設計實現交互車輛軌跡預測與駕駛意圖識別功能需要耗費大量計算資源
2、為實現上述目的,本專利技術采用如下技術方案:一種基于多任務學習的交互車輛軌跡預測與駕駛意圖識別方法,包括以下步驟:
3、步驟1:處理交互車輛軌跡預測與駕駛意圖識別數據集數據;
4、步驟2:確定軌跡預測的問題定義;
5、步驟3:使用多任務學習方法設計ctg-mtln(convolutional?transformer?gated-recurrent-unitmulti-task?transfer?learning?network)模型進行交互車輛軌跡預測與駕駛意圖識別。
6、在一較佳的實施例中,所述步驟1具體包括:首先,基于目標車輛id加載數據,并根據車道變更操作類型對軌跡數據進行分類;隨后,通過搜索周圍交通代理id并將其與相應的軌跡匹配;處理后,獲取相對于目標車輛的位置、速度、加速度和車輛類型參數信息;計算目標車輛的安全因素和車道環境信息;
7、此外,在處理所有代理的軌跡數據后,提取n+m秒的歷史軌跡數據,其中n秒用于理解,m秒用于預測;模型訓練分為兩個階段:第一階段專注于軌跡預測,整個數據集都被洗牌,無論數據類型如何,都使用固定的隨機種子;第二階段專注于駕駛意圖識別,保持交互車輛軌跡與駕駛意圖數據集中車道保持數據的固定順序;最后,兩個階段的數據分為訓練集、驗證集和測試集。
8、在一較佳的實施例中,所述步驟2具體包括:交互車輛軌跡預測和駕駛意圖識別分別指估計交互車輛的未來運動狀態和目標車輛駕駛員的未來操作意圖;交互車輛軌跡預測和駕駛意圖數據包含描述每個觀察到的交通主體的屬性、安全風險指標和道路結構信息;
9、選擇預處理的可觀察特征矩陣作為輸入v=[v1,v2,…vt,…vt];同時,設計一個預測器輸出未來交互車輛軌跡和駕駛意圖其中t={1,2,…,t}是時間戳;l={1,2,…,l}是未來預測的時間戳,l代表輸出/預測范圍;
10、交互車輛軌跡預測和駕駛意圖識別參數矩陣vt=(xtarget,xother,xri,xrr,xlabel}由五個參數矩陣組成,包括目標車輛特征集xtarget、周圍交通參與者特征集xother、目標車輛的風險指標特征集xri、車輛與道路的空間關系特征集xrr和駕駛意圖標簽特征集xlabel;xtarget和xother都包括諸如車輛類型、位置、速度和加速度運動學參數;xtarget還包括特定于目標車輛的額外運動學參數,如偏航率、加速度率和航向角;周圍交通參與者用xother={xp,xrp,xlp,xra,xla,xf,xrf,xlf}表示,其中xp表示前方交通參與者,xrp表示前方右側交通參與者,xlp表示前方左側交通參與者,xra表示右側相鄰交通參與者,xla表示左側相鄰交通參與者,xf表示后方交通參與者,xrf表示后方右側交通參與者,xlf表示后方左側交通參與者;
11、目標車輛特征集xri包含與前方和后方車輛相關的風險指標,道路特征集xrr則包括目標車輛的相對車道位置、車道類型、車道數量、車道寬度以及車輛尺寸信息。
12、在一較佳的實施例中,所述交通主體的屬性包括2d邊界框、2d位置、速度以及加速度;所述安全風險指標包括碰撞時間ttc和車頭時距thw;所述道路結構信息包括車道數量、當前車道位置。
13、在一較佳的實施例中,所述ctg-mtln模型具有四層架構,包括嵌入層、擴展嵌入層、編碼器層和解碼器層;嵌入層將序列數據映射到高維空間,以便編碼器層更好地進行特征提取;擴展嵌入層將軌跡數據在時間長度為l的范圍內擴展,并映射到高維空間,以增強模型的特征提取能力;編碼器層負責分析車輛之間的相互作用,將提取的特征轉換為隱藏狀態,作為對交通主體軌跡的總結與理解;解碼器層則從序列輸入中提取這些理解,并結合駕駛意圖生成未來的軌跡。
14、在一較佳的實施例中,所述嵌入層將包含智能體信息的觀測軌跡序列v=[v1,v2,…vt,…vt]映射到高維空間,生成隱藏特征的輸出序列oem={h1,h2,…ht,…ht},其中每個ht是dmodel維度的隱藏特征向量;輸出序列oem逐層從上到下計算:
15、oem=etoken+espat+epos??(1)
16、如公式(1)所示,嵌入層由標記嵌入etoken,空間嵌入espat,位置嵌入epos組成,具體描述如下:
17、etoken=conv1d(vtra)??(2)
18、espat=wspat2·(wspat1·xrr+bspat1)+bspat2??(3)
19、
20、其中,wspat1和wspat2是線性層的可訓練權重;
21、公式(2)和(3)分別展示前者采用一維卷積層,而后者使用兩個線性變換層;兩者將vtra和xrr映射到高維表示,以便進行后續處理或特征提取;公式(4)則描述模型的相對位置編碼函數,其中pos表示位置,dmodel表示隱藏層的維度,i表示維度;每一維的位置信息都對應一個正弦函數。
22、在一較佳的實施例中,所述擴展嵌入層在計算etoken和espat的編碼向量之前,對觀測軌跡序列v和空間特征表示xrr進行時間上的擴展,生成擴展后的觀測軌跡序列v′和擴展的空間特征表示x′rr,它們的時間長度為t+l,然后,區別于嵌入層的擴展嵌入層的特點,如下所示:
23、zt=σ(wz·[ht-1,v本文檔來自技高網...
【技術保護點】
1.一種基于多任務學習的交互車輛軌跡預測與駕駛意圖識別方法,其特征在于,包括以下步驟:
2.根據權利要求1所述的一種基于多任務學習的交互車輛軌跡預測與駕駛意圖識別方法,其特征在于,所述步驟1具體包括:首先,基于目標車輛ID加載數據,并根據車道變更操作類型對軌跡數據進行分類;隨后,通過搜索周圍交通代理ID并將其與相應的軌跡匹配;處理后,獲取相對于目標車輛的位置、速度、加速度和車輛類型參數信息;計算目標車輛的安全因素和車道環境信息;
3.根據權利要求1所述的一種基于多任務學習的交互車輛軌跡預測與駕駛意圖識別方法,其特征在于,所述步驟2具體包括:交互車輛軌跡預測和駕駛意圖識別分別指估計交互車輛的未來運動狀態和目標車輛駕駛員的未來操作意圖;交互車輛軌跡預測和駕駛意圖數據包含描述每個觀察到的交通主體的屬性、安全風險指標和道路結構信息;
4.根據權利要求3所述的一種基于多任務學習的交互車輛軌跡預測與駕駛意圖識別方法,其特征在于,所述交通主體的屬性包括2D邊界框、2D位置、速度以及加速度;所述安全風險指標包括碰撞時間TTC和車頭時距THW;所述道路結構信息包
5.根據權利要求1所述的一種基于多任務學習的交互車輛軌跡預測與駕駛意圖識別方法,其特征在于,所述CTG-MTLN模型具有四層架構,包括嵌入層、擴展嵌入層、編碼器層和解碼器層;嵌入層將序列數據映射到高維空間,以便編碼器層更好地進行特征提取;擴展嵌入層將軌跡數據在時間長度為L的范圍內擴展,并映射到高維空間,以增強模型的特征提取能力;編碼器層負責分析車輛之間的相互作用,將提取的特征轉換為隱藏狀態,作為對交通主體軌跡的總結與理解;解碼器層則從序列輸入中提取這些理解,并結合駕駛意圖生成未來的軌跡。
6.根據權利要求5所述的一種基于多任務學習的交互車輛軌跡預測與駕駛意圖識別方法,其特征在于,所述嵌入層將包含智能體信息的觀測軌跡序列V=[v1,v2,…vt,…vT]映射到高維空間,生成隱藏特征的輸出序列Oem={h1,h2,…ht,…hT},其中每個ht是dmodel維度的隱藏特征向量;輸出序列Oem逐層從上到下計算:
7.根據權利要求5所述的一種基于多任務學習的交互車輛軌跡預測與駕駛意圖識別方法,其特征在于,所述擴展嵌入層在計算Etoken和Espat的編碼向量之前,對觀測軌跡序列V和空間特征表示XRR進行時間上的擴展,生成擴展后的觀測軌跡序列V′和擴展的空間特征表示X′RR,它們的時間長度為T+L,然后,區別于嵌入層的擴展嵌入層的特點,如下所示:
8.根據權利要求5所述的一種基于多任務學習的交互車輛軌跡預測與駕駛意圖識別方法,其特征在于,所述編碼器層通過處理隱藏特征矩陣Oem={h1,h2,…ht,…hT},編碼器輸出矩陣Oen={O1,O2,…Ot,…OT},該矩陣封裝可觀察輸入序列中不同智能體之間的交互關系以及長期依賴中的潛在特征;輸出序列Oen是逐層自上而下計算的;多頭自注意力Multi-HeadAttention模塊描述為:
9.根據權利要求5所述的一種基于多任務學習的交互車輛軌跡預測與駕駛意圖識別方法,其特征在于,所述解碼器處理嵌入層的擴展輸出序列V′={v′1,v′2,…,v′t,…,v′T+L}和編碼器的輸出序列Oen={O1,O2,…Ot,…OT},以生成未來的軌跡序列以及駕駛員的操作意圖提出的解碼器通過執行一次自上而下的計算來生成完整的輸出序列;解碼器的輸入序列V′={v′1,v′2,…,v′t,…,v′T+L}是以自回歸方式生成的,如公式(9)至(12)所述,形成初始預測交互車輛軌跡序列;自上而下的計算過程如下所示:
...【技術特征摘要】
1.一種基于多任務學習的交互車輛軌跡預測與駕駛意圖識別方法,其特征在于,包括以下步驟:
2.根據權利要求1所述的一種基于多任務學習的交互車輛軌跡預測與駕駛意圖識別方法,其特征在于,所述步驟1具體包括:首先,基于目標車輛id加載數據,并根據車道變更操作類型對軌跡數據進行分類;隨后,通過搜索周圍交通代理id并將其與相應的軌跡匹配;處理后,獲取相對于目標車輛的位置、速度、加速度和車輛類型參數信息;計算目標車輛的安全因素和車道環境信息;
3.根據權利要求1所述的一種基于多任務學習的交互車輛軌跡預測與駕駛意圖識別方法,其特征在于,所述步驟2具體包括:交互車輛軌跡預測和駕駛意圖識別分別指估計交互車輛的未來運動狀態和目標車輛駕駛員的未來操作意圖;交互車輛軌跡預測和駕駛意圖數據包含描述每個觀察到的交通主體的屬性、安全風險指標和道路結構信息;
4.根據權利要求3所述的一種基于多任務學習的交互車輛軌跡預測與駕駛意圖識別方法,其特征在于,所述交通主體的屬性包括2d邊界框、2d位置、速度以及加速度;所述安全風險指標包括碰撞時間ttc和車頭時距thw;所述道路結構信息包括車道數量、當前車道位置。
5.根據權利要求1所述的一種基于多任務學習的交互車輛軌跡預測與駕駛意圖識別方法,其特征在于,所述ctg-mtln模型具有四層架構,包括嵌入層、擴展嵌入層、編碼器層和解碼器層;嵌入層將序列數據映射到高維空間,以便編碼器層更好地進行特征提取;擴展嵌入層將軌跡數據在時間長度為l的范圍內擴展,并映射到高維空間,以增強模型的特征提取能力;編碼器層負責分析車輛之間的相互作用,將提取的特征轉換為隱藏狀態,作為對交通主體軌跡的總結與理解;解碼器層則從序列輸入中提取這些理解,并結合駕駛意圖生成未來的軌跡。
6.根據權利要求5所述的一種基于...
還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。