System.ArgumentOutOfRangeException: 索引和長(zhǎng)度必須引用該字符串內(nèi)的位置。 參數(shù)名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 人妻丰满?V无码久久不卡,亚洲AV无码专区在线观看成人,无码AV动漫精品一区二区免费
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>
    當(dāng)前位置: 首頁(yè) > 專利查詢>湖南大學(xué)專利>正文

    基于不變且獨(dú)特特征的魯棒點(diǎn)云配準(zhǔn)方法及系統(tǒng)技術(shù)方案

    技術(shù)編號(hào):44498125 閱讀:7 留言:0更新日期:2025-03-04 18:06
    本發(fā)明專利技術(shù)公開(kāi)了一種基于不變且獨(dú)特特征的魯棒點(diǎn)云配準(zhǔn)方法及系統(tǒng),利用深度學(xué)習(xí)技術(shù)構(gòu)造一個(gè)可以訓(xùn)練的特征提取與匹配模型,采用本發(fā)明專利技術(shù)提出的特征提取模塊可以幫助網(wǎng)絡(luò)高效學(xué)習(xí)局部特征且重點(diǎn)關(guān)注周圍具有分辨性的標(biāo)志性特征,從而提高特征匹配準(zhǔn)確性和點(diǎn)云配準(zhǔn)精度。本發(fā)明專利技術(shù)技術(shù)方案可以實(shí)現(xiàn)室內(nèi)外低重疊場(chǎng)景下的高精度配準(zhǔn),具有精度高、魯棒性強(qiáng),適用于室內(nèi)外多種場(chǎng)景等優(yōu)點(diǎn)。

    【技術(shù)實(shí)現(xiàn)步驟摘要】

    本專利技術(shù)屬于移動(dòng)機(jī)器人領(lǐng)域,特別涉及一種基于不變且獨(dú)特特征的魯棒點(diǎn)云配準(zhǔn)方法及系統(tǒng)。


    技術(shù)介紹

    1、點(diǎn)云配準(zhǔn)是slam、三維重建和增強(qiáng)現(xiàn)實(shí)等領(lǐng)域的重要技術(shù)基礎(chǔ),指估計(jì)兩幀具有部分重疊的點(diǎn)云場(chǎng)景或目標(biāo)之間的相對(duì)位姿關(guān)系的過(guò)程。一般傳感器如深度相機(jī)和激光雷達(dá)僅能獲得部分視角或局部場(chǎng)景的點(diǎn)云信息,為了獲得完整視角或全局場(chǎng)景的點(diǎn)云信息,必須要進(jìn)行點(diǎn)云配準(zhǔn),此外通過(guò)點(diǎn)云配準(zhǔn)技術(shù)獲得機(jī)器人相對(duì)位姿關(guān)系對(duì)于各種智能無(wú)人系統(tǒng)實(shí)現(xiàn)其他高級(jí)任務(wù)也至關(guān)重要。有時(shí),圖像配準(zhǔn)也可以獲得機(jī)器人相對(duì)位姿關(guān)系,但是由于圖像配準(zhǔn)對(duì)光照變換極其敏感、需要豐富的顏色紋理特征,且難以估計(jì)深度信息,在文物重建,口腔建模,黑夜等場(chǎng)景中,點(diǎn)云配準(zhǔn)被廣泛應(yīng)用。但是在實(shí)際場(chǎng)景中,點(diǎn)云配準(zhǔn)主要面臨如下挑戰(zhàn):1)噪聲干擾,由于環(huán)境干擾或者傳感器的不足會(huì)產(chǎn)生大量的噪點(diǎn);2)非重疊部分特征干擾,非重疊部分的點(diǎn)云會(huì)對(duì)匹配造成干擾從而產(chǎn)生誤匹配;3)重復(fù)性結(jié)構(gòu)干擾,重復(fù)性結(jié)構(gòu)會(huì)產(chǎn)生相似的特征,進(jìn)而造成錯(cuò)誤的特征匹配4)遮擋和缺失,視角變化或動(dòng)態(tài)物體會(huì)產(chǎn)生遮擋,導(dǎo)致部分特征消失,超出傳感器工作范圍等因素則會(huì)造成點(diǎn)云缺失5)數(shù)據(jù)分辨率變化,激光雷達(dá)固有的近密遠(yuǎn)疏特性或不同傳感器的分辨率不同造成的影響根據(jù)是否需要特征點(diǎn)對(duì),點(diǎn)云配準(zhǔn)主要分為:直接配準(zhǔn)法和基于對(duì)應(yīng)關(guān)系的配準(zhǔn)方法。直接配準(zhǔn)法一般不需要提取局部的特征描述符,而是通過(guò)那個(gè)網(wǎng)絡(luò)學(xué)習(xí)全局的特征,并采用一個(gè)位姿估計(jì)網(wǎng)絡(luò)直接回歸生成變換位姿,從而完成點(diǎn)云配準(zhǔn)。這種從全局特征回歸相對(duì)位姿的方法屬于粗糙的點(diǎn)云配準(zhǔn),這種方法的優(yōu)點(diǎn)在于對(duì)點(diǎn)云的分辨率變化是魯棒的,并且算法的復(fù)雜度也不會(huì)隨著點(diǎn)數(shù)的增加而顯著增加,但是這類方法往往高度依賴點(diǎn)云數(shù)據(jù)的高重疊,因此不適用目前備受關(guān)注的低重疊場(chǎng)景配準(zhǔn)問(wèn)題。隨著點(diǎn)云配準(zhǔn)技術(shù)的不斷發(fā)展,目前研究人員開(kāi)始關(guān)注,低重疊場(chǎng)景下點(diǎn)云的成功配準(zhǔn),基于對(duì)應(yīng)關(guān)系的配準(zhǔn)方法受到越來(lái)越多學(xué)者的關(guān)注,這類方法首先提取一對(duì)點(diǎn)云中關(guān)鍵點(diǎn)的對(duì)應(yīng)關(guān)系,然后通過(guò)魯棒的位姿估計(jì)其進(jìn)行點(diǎn)云配準(zhǔn)。geotransformer是最具代表性的一種模型,其通過(guò)金字塔結(jié)構(gòu)的卷積特征提取器提取局部特征,并利用幾何位置編碼的全局transformer增強(qiáng)局部特征,隨后采用由粗到細(xì)的特征匹配框架,獲得稠密點(diǎn)云對(duì)應(yīng),進(jìn)而通過(guò)魯棒的位姿估計(jì)器完成點(diǎn)云配準(zhǔn)。這種模型顯著提高了點(diǎn)云配準(zhǔn)在低重疊場(chǎng)景中點(diǎn)云配準(zhǔn)的成功率,然而,在一些極端低重疊或重復(fù)性結(jié)構(gòu)較多的場(chǎng)景下,獲得的稠密點(diǎn)云對(duì)應(yīng)關(guān)系仍然包含很多錯(cuò)誤的對(duì)應(yīng),進(jìn)而影響配準(zhǔn)的精度或成功率。

    2、綜上所述,如何設(shè)計(jì)特征提取器,從而獲得更多正確的點(diǎn)對(duì)應(yīng)關(guān)系,從而更加準(zhǔn)確和魯棒的完成點(diǎn)云配準(zhǔn)是目前亟需解決的技術(shù)難題。因此有必要設(shè)計(jì)一種新的點(diǎn)云配準(zhǔn)方法。


    技術(shù)實(shí)現(xiàn)思路

    1、針對(duì)現(xiàn)有技術(shù)中的缺陷,提供了一種基于不變且獨(dú)特特征的魯棒點(diǎn)云配準(zhǔn)方法及系統(tǒng),該技術(shù)方案基于多區(qū)域mlp及transformer聯(lián)合學(xué)習(xí)的點(diǎn)云配準(zhǔn)方法具有精度高、魯棒性強(qiáng),適用于室內(nèi)外多種場(chǎng)景等優(yōu)點(diǎn)。

    2、本專利技術(shù)提供的技術(shù)方案如下:

    3、一方面,一種基于不變且獨(dú)特特征的魯棒點(diǎn)云配準(zhǔn)方法,包括:

    4、步驟1:構(gòu)造rid-net模型;

    5、所述rid-net模型包括相連的特征提取器以及由粗到細(xì)的點(diǎn)匹配器,所述特征提取器包括4個(gè)amr模塊、全局transformer模塊和4個(gè)特征前向傳播模塊;

    6、所述amr模塊包括依次相連的abstract層、基于局部旋轉(zhuǎn)不變位置編碼增強(qiáng)的mlp模塊以及環(huán)形注意力模塊;

    7、步驟2:模型訓(xùn)練;

    8、獲取某一場(chǎng)景的多對(duì)點(diǎn)云數(shù)據(jù)和對(duì)應(yīng)的相對(duì)位姿真值作為訓(xùn)練數(shù)據(jù),其中相對(duì)位姿真值化為超點(diǎn)匹配關(guān)系和稠密點(diǎn)匹配關(guān)系;依次將每對(duì)點(diǎn)云數(shù)據(jù)輸入構(gòu)造的rid-net模型,將rid-net模型預(yù)測(cè)得到的每對(duì)點(diǎn)云的超點(diǎn)的匹配關(guān)系和稠密點(diǎn)的匹配關(guān)系,以匹配損失收斂時(shí),得到訓(xùn)練好的rid-net模型參數(shù);

    9、步驟3:模型配準(zhǔn);

    10、將采集的點(diǎn)云數(shù)據(jù)輸入到訓(xùn)練好的rid-net模型中,預(yù)測(cè)兩幀點(diǎn)云對(duì)應(yīng)的超點(diǎn)匹配關(guān)系和稠密點(diǎn)匹配關(guān)系,基于得到的匹配關(guān)系通過(guò)魯棒的位姿估計(jì)器求解得兩幀點(diǎn)云的相對(duì)位姿,再將源點(diǎn)云數(shù)據(jù)通過(guò)相對(duì)位姿轉(zhuǎn)換到目標(biāo)點(diǎn)云坐標(biāo)系下完成配準(zhǔn)。

    11、魯棒的位姿估計(jì)器完全依賴于傳統(tǒng)幾何學(xué)知識(shí)根據(jù)預(yù)測(cè)的匹配關(guān)系求解魯棒的配準(zhǔn)位姿而無(wú)需訓(xùn)練;

    12、進(jìn)一步地,所述基于局部旋轉(zhuǎn)不變位置編碼增強(qiáng)的mlp模塊具體工作過(guò)程如下:

    13、步驟a1:獲取每個(gè)點(diǎn)的局部鄰域點(diǎn)坐標(biāo)及聚合特征;

    14、每個(gè)點(diǎn)的初始特征設(shè)為1,每個(gè)點(diǎn)的聚合特征是經(jīng)過(guò)abstract層聚合初始特征得到;

    15、步驟a2:計(jì)算每個(gè)點(diǎn)的垂直于點(diǎn)的法線的參考軸;

    16、

    17、其中,表示在第1層amr模塊上處理的第i個(gè)點(diǎn),kl表示第l層amr模塊采用的鄰域點(diǎn)數(shù),kl表示第l層第kl個(gè)鄰域點(diǎn),表示由點(diǎn)指向的向量,表示的第kl個(gè)鄰域點(diǎn),表示的鄰域點(diǎn)集合,是計(jì)算得到的垂直于點(diǎn)法線的向量,r設(shè)置為離最遠(yuǎn)的鄰域點(diǎn)的距離,vi是最終加權(quán)獲得的垂直于法線的參考軸;每個(gè)點(diǎn)的法線記為

    18、步驟a3:基于參考軸和法線,構(gòu)建每個(gè)點(diǎn)和鄰域點(diǎn)的高維旋轉(zhuǎn)不變位置編碼;

    19、

    20、其中,hripe()表示高維旋轉(zhuǎn)不變位置編碼操作,rpe()表示旋轉(zhuǎn)不變位置表示;表示點(diǎn)和之間的高維旋轉(zhuǎn)不變位置編碼,表示輸入的特征維度為5,第l個(gè)amr模塊輸出的特征維度為cl的線性層操作,norm表示歸一化操作,表示輸入的特征維度為cl,第l個(gè)amr模塊輸出的特征維度為cl的線性層操作;

    21、步驟a4:將每個(gè)點(diǎn)的所有鄰域點(diǎn)的高維旋轉(zhuǎn)不變位置編碼與每個(gè)點(diǎn)經(jīng)過(guò)abstract層降采樣且聚合后的采樣點(diǎn)特征相加后的前1/4的通道進(jìn)行線性變換;

    22、步驟a5:將步驟a4經(jīng)過(guò)線性變換后的結(jié)果,采用最大池化層進(jìn)行特征聚合,再接著采用兩個(gè)線性層學(xué)習(xí)更深層的特征;

    23、步驟a6:將步驟a5得到的特征與abstract層聚合得到的特征進(jìn)行殘差連接,得到更新后的特征,以緩解梯度消失。

    24、進(jìn)一步地,所述環(huán)形注意力模塊的工作過(guò)程如下:

    25、步驟b1:所述環(huán)形注意力模塊的輸入為待處理的目標(biāo)點(diǎn)集合目標(biāo)點(diǎn)周圍的環(huán)形鄰域點(diǎn)集合記為及對(duì)應(yīng)的特征集合

    26、其中,表示距離點(diǎn)除了最近的kl個(gè)點(diǎn)之外的最近的個(gè)點(diǎn)索引,特征集合是根據(jù)該索引從基于局部旋轉(zhuǎn)不變位置編碼增強(qiáng)的mlp模塊得到的特征中索引而來(lái);

    27、步驟b2:根據(jù)高維旋轉(zhuǎn)不變位置編碼操作,將相對(duì)于的高維旋轉(zhuǎn)不變位置編碼記為采用五個(gè)可學(xué)習(xí)的矩陣wg,we,wq,wk和wv來(lái)投影輸入,高維旋轉(zhuǎn)不變位置編碼通過(guò)wg,we被進(jìn)一步分別編碼為幾何編碼g和位置編碼e,再通過(guò)對(duì)幾何編碼與值value進(jìn)行加權(quán)獲得第l層目標(biāo)點(diǎn)新的特征

    28、

    29、其中,g和e分別是學(xué)習(xí)到的幾何本文檔來(lái)自技高網(wǎng)...

    【技術(shù)保護(hù)點(diǎn)】

    1.一種基于不變且獨(dú)特特征的魯棒點(diǎn)云配準(zhǔn)方法,其特征在于,包括:

    2.根據(jù)權(quán)利要求1所述的方法,其特征在于,所述基于局部旋轉(zhuǎn)不變位置編碼增強(qiáng)的MLP模塊具體工作過(guò)程如下:

    3.根據(jù)權(quán)利要求1所述的方法,其特征在于,所述環(huán)形注意力模塊的工作過(guò)程如下:

    4.根據(jù)權(quán)利要求1所述的方法,其特征在于,所述特征提取器的4個(gè)AMR模塊依次相連,其中每個(gè)AMR模塊中降采樣的系數(shù)依次為[1,0.25,0.25,0.25];每個(gè)AMR模塊的特征維度依次為[64,128,256,256];鄰域點(diǎn)數(shù)依次設(shè)置為[8,16,16,16],最后一個(gè)AMR模塊與全局Transformer模塊相連,每個(gè)AMR模塊與一個(gè)特征前向傳播模塊進(jìn)行殘差連接,4個(gè)特征前向傳播模塊反向依次相連,第一個(gè)特征前向傳播模塊的輸入端和由粗到細(xì)的點(diǎn)匹配器的輸入端均與全局Transformer模塊的輸出端與相連,最后一個(gè)特征前向傳播模塊及全局Transformer模塊的輸出端與由粗到細(xì)的點(diǎn)匹配器的輸入端相連,從而通過(guò)由粗到細(xì)的點(diǎn)匹配器獲得預(yù)測(cè)的超點(diǎn)匹配關(guān)系和稠密點(diǎn)匹配關(guān)系。

    5.根據(jù)權(quán)利要求1所述的方法,其特征在于,通過(guò)重疊感知圓損失和負(fù)對(duì)數(shù)似然損失計(jì)算匹配損失,匹配損失以重疊感知圓損失和負(fù)對(duì)數(shù)似然損失一比一相加得到;

    6.一種基于不變且獨(dú)特特征的魯棒點(diǎn)云配準(zhǔn)系統(tǒng),其特征在于,包括:

    7.根據(jù)權(quán)利要求6所述的系統(tǒng),其特征在于,所述基于局部旋轉(zhuǎn)不變位置編碼增強(qiáng)的MLP模塊具體工作過(guò)程如下:

    8.根據(jù)權(quán)利要求6所述的系統(tǒng),其特征在于,所述環(huán)形注意力模塊的工作過(guò)程如下:

    9.一種計(jì)算機(jī)設(shè)備,其特征在于:至少包括:

    10.一種計(jì)算機(jī)可讀存儲(chǔ)介質(zhì),其特征在于:存儲(chǔ)了計(jì)算機(jī)程序,所述計(jì)算機(jī)程序被處理器調(diào)用以實(shí)現(xiàn):

    ...

    【技術(shù)特征摘要】

    1.一種基于不變且獨(dú)特特征的魯棒點(diǎn)云配準(zhǔn)方法,其特征在于,包括:

    2.根據(jù)權(quán)利要求1所述的方法,其特征在于,所述基于局部旋轉(zhuǎn)不變位置編碼增強(qiáng)的mlp模塊具體工作過(guò)程如下:

    3.根據(jù)權(quán)利要求1所述的方法,其特征在于,所述環(huán)形注意力模塊的工作過(guò)程如下:

    4.根據(jù)權(quán)利要求1所述的方法,其特征在于,所述特征提取器的4個(gè)amr模塊依次相連,其中每個(gè)amr模塊中降采樣的系數(shù)依次為[1,0.25,0.25,0.25];每個(gè)amr模塊的特征維度依次為[64,128,256,256];鄰域點(diǎn)數(shù)依次設(shè)置為[8,16,16,16],最后一個(gè)amr模塊與全局transformer模塊相連,每個(gè)amr模塊與一個(gè)特征前向傳播模塊進(jìn)行殘差連接,4個(gè)特征前向傳播模塊反向依次相連,第一個(gè)特征前向傳播模塊的輸入端和由粗到細(xì)的點(diǎn)匹配器的輸入端均與全局transformer模塊的輸...

    【專利技術(shù)屬性】
    技術(shù)研發(fā)人員:余洪山,程攀飛,劉常翔,羅堪鄒艷梅,王靜文,
    申請(qǐng)(專利權(quán))人:湖南大學(xué),
    類型:發(fā)明
    國(guó)別省市:

    網(wǎng)友詢問(wèn)留言 已有0條評(píng)論
    • 還沒(méi)有人留言評(píng)論。發(fā)表了對(duì)其他瀏覽者有用的留言會(huì)獲得科技券。

    1
    主站蜘蛛池模板: 自拍偷在线精品自拍偷无码专区| 日韩午夜福利无码专区a| 无码av免费一区二区三区试看| 亚洲一区精品无码| 精品亚洲AV无码一区二区三区| 午夜精品久久久久久久无码| 人妻精品久久无码专区精东影业| 国产精品无码素人福利| 亚洲精品无码专区| 无码精品久久久久久人妻中字| 亚洲Aⅴ在线无码播放毛片一线天| 少妇伦子伦精品无码STYLES| 亚洲国产精品成人AV无码久久综合影院 | 精品深夜AV无码一区二区老年| 夜夜添无码试看一区二区三区| 亚洲熟妇无码AV| 久久亚洲精品成人av无码网站 | 国产成人无码AⅤ片在线观看| 永久免费av无码不卡在线观看| 国产激情无码视频在线播放性色| 在线精品无码字幕无码AV| 好了av第四综合无码久久| 东京热av人妻无码| 无码色AV一二区在线播放| 无码人妻一区二区三区免费手机| 无码av最新无码av专区| 亚洲国产精品无码久久青草| 亚洲Aⅴ无码专区在线观看q| 国产精品热久久无码av| 亚洲日韩AV无码一区二区三区人| 久久久久久亚洲Av无码精品专口| 亚洲AV永久无码精品成人| 亚洲精品无码成人AAA片| 国产亚洲精品a在线无码| 国产午夜无码视频在线观看| 久久久久无码国产精品一区| 日韩网红少妇无码视频香港| 久久久久亚洲AV无码麻豆| 亚洲AV无码乱码麻豆精品国产| 亚洲天然素人无码专区| 无码人妻av一区二区三区蜜臀|