System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內的位置。 參數名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 亚洲AV无码资源在线观看,亚洲AV无码国产剧情,亚洲一区无码中文字幕乱码
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    一種基于時空Transformer的三維人體姿態估計方法技術

    技術編號:44259971 閱讀:9 留言:0更新日期:2025-02-14 22:05
    本發明專利技術涉及一種基于時空Transformer的三維人體姿態估計方法,屬于人體三維姿態估計技術領域,包括以下步驟:S1:使用級聯金字塔網絡CPN對輸入的人體姿態圖像進行二維姿態估計;S2:利用基于Transformer注意力機制的空間變壓器塊獲得關節點間的空間信息;S3:將空間信息輸入基于Transformer注意力機制的全局時序特征學習模塊,輸出全局的時序特征信息;S4:在時間維度上對不同的關節進行分離,對不同關節進行并行建模,利用基于Transformer注意力機制的局部時序特征學習模塊,輸出局部的時序特征信息;S5:將全局時序特征信息和局部時序特征信息進行融合與回歸,得到三維姿態坐標。

    【技術實現步驟摘要】

    本專利技術屬于人體三維姿態估計,涉及一種基于時空transformer的三維人體姿態估計方法。


    技術介紹

    1、人體姿態估計作為計算機視覺中的關鍵研究領域,近年來在技術發展和應用上取得了顯著進展。它旨在通過分析圖像或視頻中的人體形態,準確地描述人體的姿態信息,涉及目標識別、圖像分割、回歸檢測等多項任務。相較于傳統的二維姿態估計,三維人體姿態估計能夠更精細地捕捉人體的姿態信息,因此具有更廣泛的研究和應用前景。

    2、目前,三維人體姿態估計已成為計算機視覺領域的研究熱點,也是許多重要應用領域的基礎。通過從圖像或視頻中提取的三維人體姿態信息,不僅可以用于動作識別,還可以應用于三維模型重建等任務,為人體行為分析、虛擬現實、增強現實等領域提供了重要支持。

    3、當前的三維人體姿態估計方法主要可以分為兩類:一是直接回歸法,即直接從二維圖像中預測三維姿態坐標,這種方法可以進行端到端的網絡訓練,但對網絡結構和數據預處理要求較高;二是基于二維坐標的方法,首先使用預訓練好的二維姿態估計網絡提取出骨架序列,然后將其輸入到三維姿態估計網絡中進行維度提升。基于二維骨架的方法由于借助了現有二維姿態估計算法,簡化了任務復雜度,性能也較直接回歸法更優,因此成為主流。這種方法降低了網絡結構的復雜性,更易于在實際環境中進行應用部署。

    4、此外,隨著近年來注意力機制在各種任務上展現的優秀效果,基于注意力機制的框架也開始被應用于單目單人三維人體姿態估計任務中,在改善深度模糊性問題上取得優秀的效果。2017年transformer模型提出,在許多計算機視覺任務中表現出了良好的性能。zheng等人首次提出使用純粹的基于transformer的視頻中三維人體姿態估計方法,其中不需要卷積架構,網絡結構設計為時空transformer結構,首先對每幀關節點之間相對位置進行空間信息提取,通過時間transformer結構進行時間序列信息提取,但是這種結構計算量較大,且存在相鄰幀冗余問題。hassanin等人提出了一種基于transformer的姿態估計模型,該模型在transformer結構中加入了交叉關節和交叉幀兩個交互模塊,明確的編碼了身體關節之間的局部和全局依賴關系。zhang等人提出了混合時空編碼器mixste(mixedspatio-temporalencoder),它有一個temporaltransformer分別建模每個關節的時間運動和一個spatialtransformer塊學習關節間的空間相關性,這兩個塊交替使用以獲得更好的時空特征編碼,此外,網絡輸出從輸入視頻的中心幀擴展到整個幀,從而提高了輸入序列和輸出序列之間的一致性。tang等人提出了時空交錯變壓器stcformer(spatio-temporal?criss-cross?transformer),它以雙路徑方式探索了視頻中三維人體姿態估計的空間相關性和時間相關性。其中,stcformer是通過堆疊多個stc塊來構建的,每個stc塊沿著通道維度將聯合特征分成兩組,并分別對每組上的空間和時間相互作用進行建模。通過這樣做,stc塊的接受野就像一個縱橫交錯的空間和時間軸。此外,stcformer利用人體的動態鏈結構對局部上下文進行建模,形成了一種新的位置嵌入函數。

    5、雖然這些方法已經考慮了骨架信息的獲取,但對于局部信息的獲取仍然存在不足,這可能會影響到對人體三維姿態的準確估計。在視頻中,連續幀之間存在明顯的時序關系,不同時間尺度下的時序特征對姿態估計都可能至關重要。因此有效的處理多尺度時序特征有助于提高人體三維姿態估計的準確性。


    技術實現思路

    1、有鑒于此,本專利技術的目的在于提供一種基于時空transformer的三維人體姿態估計方法,針對三維人體姿態估計中復雜的時空信息難以處理的問題,首先,在空間建模上,提出了transformer注意力機制獲得關節點間的空間信息,其次,在時序建模上,提出了融合兩種transformer注意力機制進行多尺度時序特征提取的方法,獲得多幀之間的時序特征信息,通過對關節間全局和局部的時空建模,獲取人體姿態中關節間復雜的時空信息,從而實現對人體三維姿態的精準估計。

    2、為達到上述目的,本專利技術提供如下技術方案:

    3、一種基于時空transformer的三維人體姿態估計方法,包括以下步驟:

    4、s1:使用級聯金字塔網絡cpn對輸入的人體圖像進行二維姿態估計;

    5、s2:以二維姿態估計出的關節點為輸入,利用空間transformer模塊stb得到單幀圖像關節點間的空間信息;

    6、s3:將多幀圖像的空間信息輸入全局時序transformer模塊,輸出多幀圖像關節點的全局時序特征信息;

    7、s4:在時間維度上對不同的關節進行分離,對不同關節進行并行建模,利用局部時序transformer模塊,輸出局部的時序特征信息;

    8、s5:將全局時序特征信息和局部時序特征信息進行融合與回歸,得到三維姿態坐標。

    9、進一步,步驟s1中具體包括以下步驟:

    10、s11:將人體姿態圖像輸入到級聯金字塔網絡cpn進行二維姿態估計,得到二維關節點坐標cn,t∈rn×t×2,其中n為關節點數量,t為幀數;

    11、s12:將所述二維關鍵點坐標cn,t使用由多層全連接網絡組成的骨架嵌入模塊進行編碼,得到高維向量每個關節的特征維數為dm。

    12、進一步,步驟s2中,所述stb學習每個幀中關節之間的空間相關性,給定具有n個關節的二維關鍵點,將每個關節視為空間注意力的標記;

    13、首先,以二維關節點為輸入,利用線性嵌入層將每個關鍵點投影到空間特征上;

    14、然后用位置矩陣嵌入空間位置信息;

    15、然后將第i幀的空間特征輸入到stb的空間注意機制中,對所有關節間的依賴關系進行建模,輸出第i幀空間變壓器塊中的高維特征

    16、進一步,步驟s3中,將空間模塊的輸出轉化為作為全局時序transformer模塊的輸入,學習一個全局的跨幀時序信息。輸出全局的時序特征信息將其維度轉化為

    17、進一步,步驟s4中,把所有的身體關節都當作局部時序transformer模塊中的一個標記,在時間維度上對不同的關節進行分離,使每個關節的軌跡為一個單獨的令牌并且對人體的不同關節進行并行建模;從時間維度的角度出發,將人體關節的不同運動軌跡分別建模,聯合分離操作如下:

    18、

    19、其中pi,j∈pn,t表示第j幀中的第i個關節,f表示時序編碼器函數,第l個ttb編碼器的輸出

    20、進一步,所述全局時序transformer模塊和局部時序transformer模塊均基于transformer注意力機制,所述transformer注意力機制遵循縮放后的點積注意,每個頭中查詢、鍵、值矩陣q、k、v的關注計算公式為:

    21、

    22、其中n表示令牌個數即關節點個本文檔來自技高網...

    【技術保護點】

    1.一種基于時空Transformer的三維人體姿態估計方法,其特征在于:包括以下步驟:

    2.根據權利要求1所述的基于時空Transformer的三維人體姿態估計方法,其特征在于:步驟S1中具體包括以下步驟:

    3.根據權利要求1所述的基于時空Transformer的三維人體姿態估計方法,其特征在于:步驟S2中,所述STB學習每個幀中關節之間的空間相關性,給定具有N個關節的二維關鍵點,將每個關節視為空間注意力的標記;

    4.根據權利要求1所述的基于時空Transformer的三維人體姿態估計方法,其特征在于:步驟S3中,將空間模塊的輸出轉化為作為全局時序Transformer模塊的輸入,學習一個全局的跨幀時序信息;輸出全局的時序特征信息將其維度轉化為

    5.根據權利要求1所述的基于時空Transformer的三維人體姿態估計方法,其特征在于:步驟S4中,把所有的身體關節都當作局部時序Transformer模塊中的一個標記,在時間維度上對不同的關節進行分離,使每個關節的軌跡為一個單獨的令牌并且對人體的不同關節進行并行建模;從時間維度的角度出發,將人體關節的不同運動軌跡分別建模,聯合分離操作如下:

    6.根據權利要求1所述的基于時空Transformer的三維人體姿態估計方法,其特征在于:所述全局時序Transformer模塊和局部時序Transformer模塊均基于Transformer注意力機制,所述Transformer注意力機制遵循縮放后的點積注意,每個頭中查詢、鍵、值矩陣Q、K、V的關注計算公式為:

    7.根據權利要求1所述的基于時空Transformer的三維人體姿態估計方法,其特征在于:步驟S5中,利用Concatenate的融合方式將得到的兩種時序特征信息進行融合,最終的特征融合表示為:

    8.根據權利要求1所述的基于時空Transformer的三維人體姿態估計方法,其特征在于:估計的關節位置和真實關節位置使用MSE損失函數,定義為:

    ...

    【技術特征摘要】

    1.一種基于時空transformer的三維人體姿態估計方法,其特征在于:包括以下步驟:

    2.根據權利要求1所述的基于時空transformer的三維人體姿態估計方法,其特征在于:步驟s1中具體包括以下步驟:

    3.根據權利要求1所述的基于時空transformer的三維人體姿態估計方法,其特征在于:步驟s2中,所述stb學習每個幀中關節之間的空間相關性,給定具有n個關節的二維關鍵點,將每個關節視為空間注意力的標記;

    4.根據權利要求1所述的基于時空transformer的三維人體姿態估計方法,其特征在于:步驟s3中,將空間模塊的輸出轉化為作為全局時序transformer模塊的輸入,學習一個全局的跨幀時序信息;輸出全局的時序特征信息將其維度轉化為

    5.根據權利要求1所述的基于時空transformer的三維人體姿態估計方法,其特征在于:步驟s4中,把所有的身體關節都當作局部時序transformer模塊中的一個標記...

    【專利技術屬性】
    技術研發人員:黃宏程,王涯瀚,胡敏,
    申請(專利權)人:重慶郵電大學,
    類型:發明
    國別省市:

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 黄A无码片内射无码视频| 亚洲AV无码乱码在线观看富二代 | 毛片亚洲AV无码精品国产午夜| 无码人妻精品一区二区三区99不卡 | 久久久国产精品无码一区二区三区| 青春草无码精品视频在线观| 日韩午夜福利无码专区a| 日韩人妻无码精品无码中文字幕| 国产AV无码专区亚洲AV毛网站 | 免费人妻无码不卡中文字幕18禁| 亚洲AV永久无码精品| 久久av高潮av无码av喷吹| 亚洲AV综合色区无码一二三区 | 精品久久久久久无码专区不卡| 成人无码一区二区三区| 性色AV无码中文AV有码VR| 无遮掩无码h成人av动漫| 久久久久亚洲av无码专区喷水| 最新高清无码专区| 少妇无码?V无码专区在线观看| 男男AV纯肉无码免费播放无码| 性无码专区无码片| 无码专区—VA亚洲V天堂| 最新无码A∨在线观看| 狠狠躁夜夜躁无码中文字幕| 人妻老妇乱子伦精品无码专区 | 国产日韩AV免费无码一区二区三区| 午夜麻豆国产精品无码| 亚洲最大无码中文字幕| 亚洲一区二区三区国产精品无码 | 国产成人无码精品久久久性色 | 亚洲爆乳无码专区| 最新中文字幕AV无码不卡| 中文字幕精品无码一区二区三区 | 久久久久亚洲AV成人无码网站 | 无码av免费一区二区三区| 亚洲AV无码国产精品色午友在线| 国产午夜精品无码| 91久久精品无码一区二区毛片| 亚洲AV无码精品国产成人| 国产成人精品无码专区|