• 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    一種跨場景自適應行人軌跡預測方法及設備技術

    技術編號:39306082 閱讀:27 留言:0更新日期:2023-11-12 15:54
    本發明專利技術公開了一種跨場景自適應行人軌跡預測方法及設備,該方法包括:S11:將源域真實軌跡數據轉換為目標域對齊軌跡數據,并將目標域真實軌跡數據轉換為源域對齊軌跡數據;S12:分別計算目標域對齊軌跡數據、目標域真實軌跡數據、源域對齊軌跡數據與源域真實軌跡數據的真偽得分;S13:結合上述真偽得分計算生成損失,得到最優生成模型;S21:從目標域數據集中采樣目標域數據,最優生成模型根據目標域數據生成行人的未來預測軌跡,用于自主移動機器人或自動駕駛汽車的跨場景預測任務。本發明專利技術能夠使數據級完成有效的知識遷移,使最優生成模型學習到目標域信息,提高模型在目標域上的適應力,從而解決了因場景差異帶來的模型適應性問題。題。題。

    【技術實現步驟摘要】
    一種跨場景自適應行人軌跡預測方法及設備


    [0001]本專利技術涉及行人軌跡預測的
    ,特別是涉及一種跨場景自適應行人軌跡預測方法及設備。

    技術介紹

    [0002]隨著智能制造技術、智能化系統的高速發展,人機交互技術在新一輪技術革命中的重要性與日俱增。行人軌跡預測作為人機交互系統的核心環節,在自動駕駛汽車、自主導航機器人等應用場景中都發揮著關鍵作用。行人軌跡預測旨在根據觀測到的行人歷史軌跡來預測其未來軌跡,通常涉及對不同場景下的行人運動進行建模和推理。由于人類移動意圖固有的隨機性、行人之間復雜的相互影響,以及不同應用場景的差異性,高精度、可泛化的行人軌跡預測仍是一個極具挑戰性的問題。
    [0003]近年來,由于神經網絡在計算機視覺、自然語言處理等領域大放異彩,基于數據驅動的深度學習方法已經成為行人軌跡預測技術的主流。鑒于行人軌跡本質上是一種時間序列,循環神經網絡(RNN)被用于進行軌跡時序特征提取,以生成具有相似特征的未來軌跡;為提取行人之間復雜的空間
    ?
    社會交互特征,圖神經網絡(GNN)將場景建模為圖,并從中提取行人節點之間的空間關系;考慮到行人移動意圖的多樣性,一些基于條件變分自編碼器(CVAE)的方法通過在輸出階段引入隨機采樣過程來生成多條合理軌跡,而基于生成對抗網絡(GAN)的方法則通過生成模型直接輸出多條具有社會親和力的軌跡。例如,現有技術一公開的一種通過Transformer完成具備注意力的時序特征提取的行人軌跡預測方法和系統;現有技術二公開了一種通過融合行人之間的交互特征完成預測的自動駕駛行人軌跡預測方法和裝置。
    [0004]盡管上述方法都不同程度地為提高預測精度而作出了貢獻,但它們只考慮了預測模型在單一場景上的測試性能,并假定行人在不同場景下擁有統一的運動模式,忽略了不同場景之間的巨大差異。同時,場景差異現象在自動駕駛、自主導航等領域是非常普遍的。例如,剛在郊區公路上行駛的自動駕駛汽車進入了城區街道,則行人數量、障礙物密度等場景因素的復雜程度也會隨之有所提高。而這種場景復雜度的提高就勢必要求車載軌跡預測系統能在不同場景下始終保持高穩定性與可靠性,以確保模型預測的偏差不會成為安全隱患。
    [0005]行人軌跡預測方法要想直接應用于現實產品(如自動駕駛汽車),則必須解決因場景差異帶來的模型適應性問題。

    技術實現思路

    [0006]本專利技術的目的在于解決現有技術預測行人軌跡時對不同域(場景)的適應力差的問題,提供一種跨場景自適應行人軌跡預測方法及設備。
    [0007]為實現上述目的,本專利技術采用以下技術方案:
    [0008]一種跨場景自適應行人軌跡預測方法,包括以下步驟:S11:將源域真實軌跡數據
    轉換為目標域對齊軌跡數據,并將目標域真實軌跡數據轉換為源域對齊軌跡數據;S12:分別計算所述目標域對齊軌跡數據、目標域真實軌跡數據、源域對齊軌跡數據與源域真實軌跡數據的真偽得分;S13:結合所述目標域對齊軌跡數據的真偽得分、目標域真實軌跡數據的真偽得分計算目標域生成損失,并結合所述源域對齊軌跡數據的真偽得分與源域真實軌跡數據的真偽得分計算源域生成損失,迭代更新得到最優生成模型;S21:從目標域數據集中采樣目標域數據,所述最優生成模型根據所述目標域數據生成行人的未來預測軌跡,從而用于自主移動機器人或自動駕駛汽車的跨場景預測任務。
    [0009]在本專利技術的一些實施例中,步驟S13中,所述最優生成模型還生成源域對齊軌跡數據,將所述源域對齊軌跡數據與源域真實軌跡數據混合得到增強源域數據;將所述增強源域數據劃分為增強源域歷史觀測數據和源域未來真值數據,將目標域真實軌跡數據劃分為目標域歷史觀測數據和目標域未來真值數據。
    [0010]在本專利技術的一些實施例中,還包括以下步驟:S14:將所述增強源域歷史觀測數據和所述目標域歷史觀測數據映射到同一高維特征空間,并分別生成參與域對齊的增強源域歷史觀測數據中間特征和目標域歷史觀測數據中間特征,再計算得到所述增強源域歷史觀測數據中間特征的真偽得分和所述目標域歷史觀測數據中間特征的真偽得分;S15:結合所述源域歷史觀測數據中間特征的真偽得分和所述目標域歷史觀測數據中間特征的真偽得分訓練得到包含最優編碼器、最優解碼器的最優生成模型,所述最優編碼器輸出在不同域通用的域不變特征,所述最優解碼器根據所述域不變特征生成行人預測軌跡。
    [0011]在本專利技術的一些實施例中,步驟S11中,還包括分別建立目標域生成器和源域生成器,所述目標域生成器將所述源域真實軌跡數據轉換為所述目標域對齊軌跡數據;所述目標域生成器的輸入為源域真實軌跡數據;所述源域生成器將目標域真實軌跡數據轉換為源域對齊軌跡數據;所述目標域生成器首先在時間維度上通過時間卷積網絡進行連續的時間卷積以獲得所述源域軌跡數據的中間張量;所述時間卷積網絡中具有多頭注意力層,用于輸出經注意力機制處理后的表達張量;將所述表達張量與特征維度進行拼接,通過全連接層將特征維度的維度調整至與所述時間維度的維度相同。
    [0012]在本專利技術的一些實施例中,步驟S12中,還包括分別建立源域判別器和目標域判別器,通過所述目標域判別器推導出所述目標域對齊軌跡數據的真偽得分與目標域真實軌跡數據的真偽得分;所述源域判別器推導出所述源域對齊軌跡數據的真偽得分與源域真實軌跡數據的真偽得分;所述目標域對齊軌跡數據的真偽得分與目標域真實軌跡數據的真偽得分計算方法為:
    [0013][0014]其中,I
    ST
    代表目標域對齊軌跡數據的真偽得分,I
    TT
    代表目標域真實軌跡數據的真偽得分,X
    ST
    表示目標域對齊軌跡數據,X
    T
    表示目標域真實軌跡數據,D
    T
    代表目標域判別器,W
    dt
    代表目標域判別器中所有可學習參數。
    [0015]在本專利技術的一些實施例中,在步驟S13中包括以下步驟:S131:分別從源域數據集和目標域數據集中采樣得到源域真實軌跡數據與目標域真實軌跡數據;S132:構建并迭代訓練數據級對齊模塊,每一次迭代時計算第一目標函數:
    [0016][0017]其中,代表數據級對齊模塊的總損失函數,X
    S
    代表源域真實軌跡數據,代表目標域生成損失,代表源域生成損失,代表循環一致性損失,代表本體損失,α是的權重系數,β是的權重系數;
    [0018]S133:計算神經網絡反向傳播梯度并分別對所述目標域生成器、源域生成器、源域判別器、目標域判別器的參數進行更新,得到最優生成模型,所述最優生成模型的表達式如下:
    [0019][0020]其中,G
    S

    T
    代表目標域生成器,G
    T

    S
    代表源域生成器,D
    S
    代表源域判別器,D
    T
    代表目標域判別器。
    [0021]在本專利技術的一些實施例中,步驟S14中包括構建特征級對齊嵌入判別器;所述特征級對齊嵌入判別器根據所述增強源域歷史觀測數據本文檔來自技高網
    ...

    【技術保護點】

    【技術特征摘要】
    1.一種跨場景自適應行人軌跡預測方法,其特征在于,包括以下步驟:S11:將源域真實軌跡數據轉換為目標域對齊軌跡數據,并將目標域真實軌跡數據轉換為源域對齊軌跡數據;S12:分別計算所述目標域對齊軌跡數據、目標域真實軌跡數據、源域對齊軌跡數據與源域真實軌跡數據的真偽得分;S13:結合所述目標域對齊軌跡數據的真偽得分、目標域真實軌跡數據的真偽得分計算目標域生成損失,并結合所述源域對齊軌跡數據的真偽得分與源域真實軌跡數據的真偽得分計算源域生成損失,迭代更新得到最優生成模型;S21:從目標域數據集中采樣目標域數據,所述最優生成模型根據所述目標域數據生成行人的未來預測軌跡,從而用于自主移動機器人或自動駕駛汽車的跨場景預測任務。2.根據權利要求1所述的跨場景自適應行人軌跡預測方法,其特征在于,步驟S13中,所述最優生成模型還生成源域對齊軌跡數據,將所述源域對齊軌跡數據與源域真實軌跡數據混合得到增強源域數據;將所述增強源域數據劃分為增強源域歷史觀測數據和源域未來真值數據,將目標域真實軌跡數據劃分為目標域歷史觀測數據和目標域未來真值數據。3.根據權利要求2所述的跨場景自適應行人軌跡預測方法,其特征在于,還包括以下步驟:S14:將所述增強源域歷史觀測數據和所述目標域歷史觀測數據映射到同一高維特征空間,并分別生成參與域對齊的增強源域歷史觀測數據中間特征和目標域歷史觀測數據中間特征,再計算得到所述增強源域歷史觀測數據中間特征的真偽得分和所述目標域歷史觀測數據中間特征的真偽得分;S15:結合所述源域歷史觀測數據中間特征的真偽得分和所述目標域歷史觀測數據中間特征的真偽得分訓練得到包含最優編碼器、最優解碼器的最優生成模型,所述最優編碼器輸出在不同域通用的域不變特征,所述最優解碼器根據所述域不變特征生成行人預測軌跡。4.根據權利要求1至3任一項所述的跨場景自適應行人軌跡預測方法,其特征在于,步驟S11中,還包括分別建立目標域生成器和源域生成器,所述目標域生成器將所述源域真實軌跡數據轉換為所述目標域對齊軌跡數據;所述目標域生成器的輸入為源域真實軌跡數據;所述源域生成器將目標域真實軌跡數據轉換為源域對齊軌跡數據;所述目標域生成器首先在時間維度上通過時間卷積網絡進行連續的時間卷積以獲得所述源域軌跡數據的中間張量;所述時間卷積網絡中具有多頭注意力層,用于輸出經注意力機制處理后的表達張量;將所述表達張量與特征維度進行拼接,通過全連接層將特征維度的維度調整至與所述時間維度的維度相同。5.根據權利要求4所述的跨場景自適應行人軌跡預測方法,其特征在于,步驟S12中,還包括分別建立源域判別器和目標域判別器,通過所述目標域判別器推導出所述目標域對齊軌跡數據的真偽得分與目標域真實軌跡數據的真偽得分;所述源域判別器推導出所述源域對齊軌跡數據的真偽得分與源域真實軌跡數據的真偽得分;所述目標域對齊軌跡數據的真偽得分與目標域真實軌跡數據的真偽得分計算方法為:
    其中,I
    ST
    代表目標域對齊軌跡數據的真偽得分,I
    TT
    代表目標域真實軌跡數據的真偽得分,X
    ST
    表示目標域對齊軌跡數據,X
    T
    表示目標域真實軌跡數據,D
    T
    代表目標域判別器,W
    ...

    【專利技術屬性】
    技術研發人員:曾龍李文湛張濤吳翔馮平法
    申請(專利權)人:深圳市普渡科技有限公司
    類型:發明
    國別省市:

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 亚洲av永久无码精品网址| 日日摸夜夜添无码AVA片| 麻豆精品无码国产在线果冻| 久久亚洲精品无码av| 免费无遮挡无码永久在线观看视频 | 在线无码视频观看草草视频| 亚洲Aⅴ无码一区二区二三区软件| 亚洲不卡中文字幕无码| 人妻无码中文字幕| 精品无码国产自产在线观看水浒传 | 丰满熟妇人妻Av无码区| 免费无码A片一区二三区 | 精品一区二区三区无码免费直播 | 亚洲av中文无码| 中文字幕亚洲精品无码| 无码欧精品亚洲日韩一区| 亚洲精品无码成人片在线观看| 久久亚洲AV成人无码软件| 亚洲中文字幕无码久久2017| 办公室丝袜激情无码播放 | 免费精品无码AV片在线观看| 超清无码一区二区三区| 天堂无码久久综合东京热| 国产乱人伦中文无无码视频试看| 精品无码人妻一区二区三区 | 亚洲av无码一区二区三区人妖| 亚洲AV无码久久精品狠狠爱浪潮| 久久久久亚洲av成人无码电影| 人妻丝袜无码专区视频网站| 无码专区HEYZO色欲AV| 狠狠精品干练久久久无码中文字幕| 精品无码一区二区三区爱欲| 亚洲AV无码不卡在线播放| 亚洲av永久无码制服河南实里 | 无码中文字幕一区二区三区| 亚洲欧洲AV无码专区| 国模无码一区二区三区| 国产精品久久无码一区二区三区网| 亚洲Av永久无码精品黑人| 亚洲啪AV永久无码精品放毛片| 无码毛片内射白浆视频|